مهندسی داده (Data Engineering)

شروع بوت کمپ از۶ بهمن ماه ۱۴۰۴
۲۵٪ تخفیف زودهنگام
ظرفیت باقیمانده تخفیف: ۱۵ نفر
بوتکمپ استخدامی
۶ ماه (۲۰۰+ ساعت)
همراه با منتورینگ
۲۵٪ تخفیف زودهنگام
ظرفیت باقیمانده تخفیف: ۱۵ نفر

بوت کمپ مهندسی داده؛ دوره آموزش Data Engineering

دوره مهندسی داده یک بوت کمپ ۲۰۰ ساعته و جامع است که بدون نیاز به هیچ پیش‌نیازی، شما را وارد دنیای گسترده و بی‌پایان داده می‌کند. این دوره مهندسی داده به‌صورت ترکیبی از جلسات آنلاین، آفلاین و منتورینگ هفتگی اختصاصی برگزار می‌شود و تمام آموزش‌ها کاملاً پروژه‌محور طراحی شده‌اند.

در این آموزش مهندسی داده یاد می‌گیرید چگونه داده‌ها را از هر منبع ممکن جمع‌آوری، پاک‌سازی، ساختاردهی و برای استفاده‌ی دیتاساینتیست‌ها و AI Engineer‌ها آماده کنید. مسیر یادگیری در این دوره Data Engineering شما را به مهارت‌هایی می‌رساند که برای ساخت زیرساخت‌های داده‌ای حرفه‌ای و قابل‌اعتماد به آن نیاز دارید.

اگر به دنیای دیتا علاقه‌مندید و می‌خواهید نقشی کلیدی در جریان تولید ارزش از داده‌ها داشته باشید، این بوت کمپ نقطه شروع شماست.

کمک به استخدام در شرکت‌های منتخب

شما با استفاده از آموزش‌های بوت‌کمپ و انجام تمرین‌ و پروژه به سطحی می‌رسید که به عنوان جونیور در شرکت‌ها مشغول به کار بشید. به شما نحوه ارسال رزومه، مصاحبه شغلی و ارتباط با شرکت‎ها رو آموزش میدیم تا خودتون هم رزومه بفرستید. برای افرادی که با حضور فعالانه، دوره را با موفقیت به آخر می‌رسونن، فرایند کاریابی شامل ارزیابی رزومه، شبیه‌سازی مصاحبه شغلی و معرفی‌شون به شرکت‌های منتخب براشون انجام میشه.

سرفصل های دوره مهندسی داده (Data Engineering)

Soft Skills

علی رجبی
۵ ساعت
علی رجبی
۵ ساعت
  • شخصیت شناسی (ابزارهای معتبر شخصیت شناسی تست NEO، سنجش رغبت شغلی با تست HOLLAND) و تحلیل آن
  • کارتیمی (پنج دشمن کار تیمی، بازیکن تیمی ایده آل)
  • پرورش مهارت یادگیری (مدیریت زمان، مدیریت توجه، برنامه ریزی، سطوح یادگیری)

Python - پایتون

علیرضا مرتضایی
۲۲ ساعت
علیرضا مرتضایی
۲۲ ساعت
  • آشنایی اولیه با زبان برنامه‌نویسی پایتون، کاربردها، و محیط اجرا
  • معرفی variables و روش تعریف آن‌ها
  • آشنایی با نوع داده string، نحوه تعریف و مقداردهی
  • معرفی ساختار داده list برای نگهداری مجموعه‌ای از داده‌ها
  • آشنایی با dictionary
  • توضیح حلقه‌ها (loop) شامل for loop و while loop
  • بررسی عبارات شرطی شامل if, elif, else
  • تعریف function، نحوه ایجاد، دریافت پارامترها
  • آشنایی با module و package
  • مروری کامل بر مبانی برنامه‌نویسی شیءگرا
  • آشنایی با مفهوم مدیریت خطاها با error handling
  • نحوه کار با فایل‌ها
  • معرفی regular expressions
  • آشنایی با ساختارهای داده (data structures)
  • مقدمه‌ای بر algorithm و آشنایی با concurrency

sql

امیرحسین درویش
۳ ساعت
امیرحسین درویش
۳ ساعت
  • مفاهیم پایه و ساختار پایگاه داده
  • آشنایی با ساختار، مفاهیم اولیه و انواع پایگاه داده‌ها
  • دستورات اساسی و مدیریت داده‌ها در SQL
  • ایجاد، ویرایش، حذف، و نگهداری داده‌ها و جداول
  • پرس‌وجوهای پیشرفته و فیلتر داده‌ها
  • استفاده از JOIN، GROUP BY، HAVING و توابع تجمیعی
  • بهینه‌سازی و کارایی کوئری‌ها
  • ایندکس‌ها، بهبود عملکرد، و استراتژی‌های اجرای سریع‌تر
  • توسعه و کار با دیتابیس در پروژه‌های عملی
  • کار با پروژه‌های واقعی، نمونه‌سازی و توسعه طبق نیاز کاربری

Git - گیت

آرمین دارابی محبوب
۸ ساعت
آرمین دارابی محبوب
۸ ساعت
  • مقدمات گیت
  • برنچ‌ها و مدیریت شاخه‌ها
  • ادغام (Merge) و مدیریت کانفلیکت
  • مدیریت تغییرات موقت (Stash)
  • بررسی و مقایسه تغییرات
  • سفر در زمان و بازگردانی تغییرات
  • گیت‌هاب و کار با ریپازیتوری ریموت
  • مستندسازی

Data-intensive تئوری

امیرحسین درویش
۶ ساعت
امیرحسین درویش
۶ ساعت
  • توضیح مفهوم داده و انواع آن شامل داده‌های ساختاریافته (Structured)، نیمه‌ساختاریافته (Semi
  • structured) و بدون ساختار (Unstructured)
  • معرفی مدل‌سازی داده، تفاوت OLAP و OLTP، مفاهیم Normalization و Denormalization و مدل‌سازی ابعادی (Dimension modeling) بر اساس روش Kimball
  • بررسی فرمت‌های فایل مانند row
  • based، columnar و binary و مفهوم ذخیره‌سازی توزیع‌شده
  • تعریف و کاربردهای Partitioning در مدیریت و بهبود عملکرد پایگاه داده
  • افزایش مقیاس افقی (Horizontal scaling) با استفاده از چندین سرور برای مدیریت بار بالا
  • معرفی انواع ایندکس‌ها شامل B
  • tree، hash، bitmap و inverted index و کاربردهای آن‌ها
  • توضیح CAP Theorem و تاثیر آن بر طراحی سیستم‌های توزیع‌شده
  • معرفی فرآیندهای ETL، ELT، پردازش دسته‌ای (Batch) و پردازش جریان (Stream)
  • توضیح خواص ACID شامل Atomicity، Consistency، Isolation و Durability در پایگاه داده
  • مرور معماری‌های Lambda، Kappa، Data Mesh و Medallion برای مدیریت و پردازش داده‌های پیچیده

postgreSQL

محمد رودباری
۸ ساعت
محمد رودباری
۸ ساعت
  • آشنایی با مفاهیم پایه‌ای پایگاه داده (Database)
  • معرفی دیاگرام پایگاه داده (ERD) و روش‌های نصب و راه‌اندازی سیستم‌های مدیریت پایگاه داده (DBMS)
  • کار با پایگاه داده PostgreSQL و ابزار مدیریت گرافیکی PgAdmin4 برای ایجاد و مدیریت دیتابیس
  • انجام عملیات Create, Read, Update, Delete با دستورات SQL در پایگاه داده
  • فیلتر کردن داده‌ها در SQL
  • استفاده از Join برای ترکیب جداول و ایجاد View برای ساده‌سازی دسترسی به داده‌ها
  • مدیریت تراکنش‌ها (Transactions)
  • آشنایی با انواع داده (Data Types) و استفاده از Index برای بهبود عملکرد جستجو
  • تعریف توابع و Trigger برای اجرای خودکار عملیات در پایگاه داده
  • پیاده‌سازی یک پروژه عملی فروشگاه لباس با استفاده از مفاهیم یادگرفته شده در پایگاه داده

Linux

سپهر بازیار
۵ ساعت
سپهر بازیار
۵ ساعت
  • ● Introduction
  • ● File Systems
  • ● Basic Commands
  • ● Package Managers
  • ● File Compressions
  • ● File Permissions

Linkedin - لینکدین

آتوسا آهنگ
۲ ساعت
آتوسا آهنگ
۲ ساعت
  • آشنایی با LinkedIn به عنوان بزرگ‌ترین شبکه اجتماعی حرفه‌ای در دنیا
  • راهنمای شروع ساخت پروفایل بر اساس تخصص و اهداف شخصی برای حرفه ای تر دیده‌شدن
  • تکمیل بخش‌های رزومه مانند About (درباره من)، Experience (سوابق کاری)، Education (تحصیلات) و Skills (مهارت‌ها)
  • افزودن بخش‌های Certifications، Projects، Recommendations و …
  • آشنایی با اصول شبکه‌سازی و روش‌های برقراری ارتباط حرفه‌ای در لنیکدین
  • مروری بر بخش Jobs (بخش مشاغل)؛ آموزش جستجوی فرصت‌های شغلی
  • انتخاب ایده محتوایی مناسب برای انتشار در لینکدین
  • ابزارهای analytics بررسی آماره‌های بازدید، نرخ تعامل و … محتوای منتشرشده
  • یادگیری در لینکدین با LinkedIn Learning، پلتفرم آموزش آنلاین وابسته به لینکدین
  • تعامل حرفه‌ای در لینکدین: comment ، like ،اشتراک‌گذاری و انتشار post
  • ساخت و مدیریت Business Page
  • آشنایی با بخش Home (خانه) لینکدین؛ مرور تایم‌لاین اختصاصی

click house

امیرحسین درویش
۸ ساعت
امیرحسین درویش
۸ ساعت
  • آشنایی با مفاهیم RESTful و تفاوت آن با رندر سمت سرور
  • نصب و پیکربندی اولیه DRF در پروژه جنگو
  • طراحی و توسعه API با APIView، ViewSet و GenericViewها
  • تعریف سریالایزرها برای مدل‌ها و داده‌های سفارشی
  • احراز هویت با JWT و تعریف پرمیشن‌های سطح دسترسی
  • صفحه‌بندی، فیلترینگ، جستجو و مرتب‌سازی اطلاعات
  • کنترل نرخ درخواست (Throttling) و کش کردن داده‌ها
  • مستندسازی API با Swagger و ابزارهای مشابه
  • ورژن‌بندی API و مدیریت آپلود فایل
  • پیاده‌سازی Exception Handling و ساخت APIهای async

Network

متین خلیلی
۲ ساعت
متین خلیلی
۲ ساعت
  • آشنایی با مفهوم شبکه (Network)
  • چگونه دانش شبکه بر توسعه بک‌اند و بهبود ارتباط بین سرور و کلاینت تاثیر میگذارد؟
  • معرفی انواع شبکه‌ها از جمله LAN، WAN، MAN و شبکه‌های بی‌سیم
  • مروری بر پروتکل‌های ارتباطی شبکه
  • آشنایی با آدرس‌دهی IP و تقسیم زیرشبکه (Subnetting) برای مدیریت بهتر منابع شبکه
  • سرویس DNS و نقش آن در تبدیل آدرس‌های IP به نام‌های دامنه
  • معرفی سخت‌افزارهای شبکه
  • مدل کلاینت
  • سرور و نحوه ارتباط بین کلاینت و سرور در شبکه
  • مدیریت Timeout و Latency در ارتباطات شبکه برای بهبود عملکرد
  • مفهوم Load Balancing برای توزیع بار در سرورها
  • توضیح دقیق Reverse Proxy و نقش آن در مدیریت و امنیت ترافیک شبکه
  • آشنایی با Web Server و عملکرد آن در ارائه خدمات به کاربران

Docker

علیرضا مرتضائی
۴ ساعت
علیرضا مرتضائی
۴ ساعت
  • آشنایی با مفهوم داکر (Docker) و مزایای استفاده از کانتینرها در توسعه نرم‌افزار
  • معرفی دستورات پایه داکر مانند docker run, docker ps, docker stop برای مدیریت کانتینرها
  • توضیح مفهوم ایمیج (Image) و لایه‌ها (Layers) در داکر و نحوه ساخت و مدیریت آن‌ها
  • بررسی چرخه حیات کانتینرها (Container Lifecycle) شامل ایجاد، اجرا، توقف و حذف
  • تنظیم سیاست‌های راه‌اندازی مجدد (Restart Policy) برای کانتینرها در صورت خطا
  • انتقال پورت‌ها (Port Forwarding) بین کانتینر و هاست برای دسترسی به سرویس‌ها
  • استفاده از ولوم‌ها (Volumes) برای ذخیره‌سازی داده‌های پایدار در داکر
  • مدیریت شبکه (Network) در داکر و ارتباط بین کانتینرها
  • نوشتن فایل Dockerfile برای ساخت ایمیج و تعریف محیط اجرایی
  • استفاده از docker
  • compose برای مدیریت چندین کانتینر و سرویس در یک پروژه
  • Push to Registry
  • راه‌اندازی پروژه‌های جنگو (Django) با داکر و تعریف محیط اجرایی

Data-Pipeline(Kafka)

امیرحسین درویش
۱۰ ساعت
امیرحسین درویش
۱۰ ساعت
  • آشنایی با Apache Kafka به عنوان پلتفرم پیام‌رسانی توزیع‌شده برای پردازش جریان‌های داده در مقیاس بالا
  • معرفی Kafka Connect برای اتصال Kafka به سیستم‌های دیگر و انتقال داده به صورت مقیاس‌پذیر و قابل‌اعتماد
  • استفاده از Ksql برای پرس‌وجو و پردازش جریان‌های داده در Kafka با SQL
  • معرفی ابزار Kafka UI برای مدیریت و نظارت بر کلاستر Kafka از طریق رابط کاربری
  • توضیح نقش Zookeeper در مدیریت مراکز کلاستر Kafka و ذخیره‌سازی متادیتا در نسخه‌های قدیمی Kafka
  • معرفی KRaft به عنوان پروتکل جدید مدیریت متادیتا در Kafka که نیاز به Zookeeper را حذف می‌کند و معماری Kafka را ساده‌تر می‌کند

Streaming Data(Spark)

فرهاد لطفی
۱۵ ساعت
فرهاد لطفی
۱۵ ساعت
  • آشنایی با مفهوم Big Data و معرفی Apache Spark به عنوان پلتفرم پردازش توزیع‌شده برای داده‌های حجیم
  • شروع به کار با PySpark، ایجاد Spark Session و اولین DataFrame و کار با داده‌های مختلف
  • استفاده از SparkSQL و Temporary Views برای پرس‌وجوی داده‌ها
  • توضیح مفهوم Lazy Evaluation و تفاوت Transformations و Actions در Spark
  • مقایسه RDD و DataFrame و انتخاب مناسب برای پروژه‌ها
  • توضیح معماری Spark از Transformations تا Jobs، Stages و Tasks
  • بررسی مراحل اجرایی در Spark از Transformations تا Jobs، Stages و Tasks
  • معرفی DAG و Catalyst Optimizer برای بهینه‌سازی Lazy Evaluation در Spark
  • استفاده از Spark UI و History Server برای مانیتورینگ و پیگیری اجرای Spark
  • ساخت Data Lake با Minio، Parquet و Hive Metastore برای مدیریت داده‌های بزرگ
  • معرفی فرمت Parquet و مزایای آن برای پردازش داده‌های بزرگ
  • استفاده از Window Functions، Joins، Broadcast Joins، Partitioning، Bucketing و استراتژی‌های بهینه‌سازی فایل‌ها در Spark
  • استفاده از Window Functions برای تحلیل سری‌های زمانی و داده‌های تحلیلی
  • انجام Joins و Broadcast Joins و تنظیمات بهینه برای عملکرد
  • استفاده از Partitioning، Bucketing و استراتژی‌های بهینه‌سازی فایل‌ها برای بهبود عملکرد
  • استفاده از Caching و Persistence برای اجرای سریع‌تر فرآیندها
  • معرفی Delta Lake و انجام عملیات CRUD، Upserts (MERGE INTO)، Time Travel و بهینه‌سازی با OPTIMIZE و Z
  • Ordering
  • مرور معماری Delta Lake و مزایای آن
  • بهترین روش‌ها برای Schema Evolution و Vacuum در Delta Lake
  • پردازش داده‌های Real
  • Time با Structured Streaming در Spark
  • مقایسه مفاهیم Batch و Streaming در پردازش داده‌ها
  • استفاده از Streaming APIs، Triggers و Output Modes برای مدیریت جریان داده‌ها
  • خواندن داده‌ها از Kafka Topics در Spark Streaming
  • انجام تجمیع‌های Windowed در Spark Streaming
  • نوشتن جریان‌های پردازش‌شده به Kafka یا Delta Lake
  • معرفی MLlib و ساخت Pipelines برای مدل‌سازی داده‌ها در Spark
  • ساخت مدل Logistic Regression برای Classification در Spark
  • طراحی و اجرای پایپلاین داده End
  • to
  • End از Kafka تا Delta و SQL/BI در Spark

پروژه پایانی

امیر حسین درویش
امیر حسین درویش

کارگاه رزومه نویسی

امیر حسین درویش
۲ ساعت
امیر حسین درویش
۲ ساعت
  • کارگاه رزومه نویسی برای توسعه دهندگان جنگو

پنل انتقال تجربه

اساتید برجسته
۳ ساعت
اساتید برجسته
۳ ساعت
  • در این بخش با تجربیات و دانش حرفه‌ای افراد موفق در حوزه‌ی دیتا همراه خواهید شد.(هر جلسه ۱.۵ ساعت)

مدرسان دوره مهندسی داده (Data Engineering)

امیرحسین درویش
امیرحسین درویش
Data Engineer at
دیجی کالا
فرهاد لطفی
فرهاد لطفی
Data Engineer at
دیجی کالا
محمد رودباری
محمد رودباری
Co-Founder | Back End Developer
adklay
متین خلیلی
متین خلیلی
Software Engineer
کارگزاری مفید
سپهر بازیار
سپهر بازیار
Backend Developer
کارنامه
آرمین دارابی محبوب
آرمین دارابی محبوب
Co-Founder & CTO at
کاستومیک
امیرمحمد واحد
امیرمحمد واحد
Front end Developer
نت بار
علی رجبی
علی رجبی
Co-founder & CEO at
دانشکار
آتوسا آهنگ
آتوسا آهنگ
Co-Founder and Marketing lead
سکودار
علیرضا مرتضائی
علیرضا مرتضائی
Backend Lead
رنتیفای
فاطمه محمدی
فاطمه محمدی
Coaching Expert at
دانشکار

چرا این دوره؟

مزایای این دوره

تمرین و پروژه‌های کاربردی
منتورینگ و جلسات رفع اشکال
آموزش مهارت‌های نرم و کار تیمی
همراهی پشتیبان در مسیر یادگیری
شبکه سازی با اساتید و دانش پذیران
آموزش رزومه نویسی و آمادگی برای مصاحبه شغلی
کمک به استخدام نفرات برتر

مسیرآموزشی در دانشکار

ورود به بوت‌کمپیادگیری در بوت‌کمپپس از بوت‌کمپ

زمان‌بندی دوره

تاریخ شروع دوره
۶ بهمن ماه
مدت زمان دوره
۶ ماه (۲۰۰+ ساعت)

برنامه هفتگی

دسترسی به محتوای دوره
کلاس حل تمرین
به زودی مشخص خواهد شد
Consult

هزینه بوت‌کمپ و ثبت‌نام اولیه

۱۵٪ تخفیف
پرداخت قسطی
۲۳,۸۰۰,۰۰۰
۲۰,۴۰۰,۰۰۰
+کمک در استخدام
+منتورینگ
+پشتیبانی
۴ قسط، ماهیانه ۵,۱۰۰,۰۰۰
۲۵٪ تخفیف
پرداخت نقدی
۲۳,۸۰۰,۰۰۰
۱۸,۶۰۰,۰۰۰
+کمک در استخدام
+منتورینگ
+پشتیبانی
ظرفیت باقیمانده برای تخفیف زودهنگام ۱۵ نفر

سوالات متداول

faq

سوالات شما پاسخ داده نشد؟

برای دریافت مشاوره تخصصی رایگان روی درخواست مشاوره کلیک کنید.
در سریعترین زمان ممکن کارشناسان آکادمی با شما تماس می‌گیرند.

مهندسی داده دقیقاً چیست و چرا مهم است؟

مهندسین داده با آماده‌سازی اطلاعات خام برای جمع‌آوری و تجزیه و تحلیل، پایه و اساس علم داده را می‌سازند. مهندسان داده مانند معماران و سازندگان خطوط آب شهری هستند. این افراد داده‌‌های خام را به سیستم‌های تحلیل می‌رسانند تا دانشمندان داده بتوانند از آن‌ها استفاده کنند. در واقع دانشمندان داده اطلاعات را برای ساخت مدل‌های مختلف یا پاسخ به سوالات تجزیه‌وتحلیل می‌کنند و اما مهندسان داده سیستم‌هایی را برای این تجزیه‌وتحلیل فراهم می‌کنند. بدون مهندسی داده استفاده از این اطلاعات ممکن نیست.

آیا مهندسی داده با تحلیل داده تفاوت دارد؟

بله. مهارت‌ها، ابزارها و اهداف نهایی مهندسی داده با تحلیل داده متفاوت است. از مهم‌ترین تفاوت‌های این نقش‌ها می‌توان به موارد زیر اشاره کرد:

  • حوزه‌های تمرکز: در مهندسی داده، تمرکز مهندسان بر ساخت زیرساخت‌های مناسب جمع‌‌آوری، ذخیره‌سازی و پردازش داده‌ها و مدیریت آن‌ها است. اما در تحلیل‌ داده تمرکز اصلی بر استفاده از ابزارها و تکنیک‌های مختلف برای کاوش، تحلیل و تفسیر داده‌ها است. در این فرایند داده‌ها به اطلاعات ارزشمندی برای کسب‌وکار تبدیل می‌شوند و می‌توان با بررسی الگوی آن‌ها تصمیم‌های مهمی گرفت.
  • مهارت‌های فنی: برنامه‌نویسی و مدیریت پایگاه داده از مهارت‌های ضروری برای مهندسی داده است. پایتون، جاوا یا اسکالا از جمله زبان‌های برنامه‌نویسی مورد نیاز در مهندسی داده هستند. اما در تحلیل داده فرد متخصص باید تحلیل آماری قوی و نمودارهای مختلفی از داده‌ها ارائه دهد. از مهم‌ترین ابزارها در تحلیل داده می‌توان به SQL، اکسل و زبان R یا پایتون اشاره کرد.
  • ابزارها و فناوری‌های مورد استفاده: در مهندسی داده، مهندسان از پلتفرم‌ها و ابزارهای قوی برای جذب، ذخیره‌سازی و پردازش داده‌ها استفاده می‌کنند. اما تحلیل‌گران داده به ابزارها و فناوری‌هایی نیاز دارند که داده‌ها را به محتواهای بصری تبدیل می‌کند. اکسل، پاور بی‌آی و پایتون از جمله این ابزارها هستند.
  • اهداف نهایی: هدف مهندسی داده آماده‌سازی داده برای تحلیل، سازمان‌دهی، پاکسازی و در دسترس بودن آن است. در مهندسی داده تمرکز بر ایجاد سیستم‌های کارآمدی است که داده‌ها را برای تحلیل‌گران و دانشمندان آماده کند. اما تمرکز اصلی تحلیل داده بر تفسیر اطلاعات و تحلیل آن‌ها است. در این رشته به سوالات خاص کسب‌وکار پاسخ می‌دهند و داده‌ها را متناسب با درک تصمیم‌گیرندگان تحلیل می‌کنند.

چه تفاوت‌هایی میان یک مهندس داده و یک دانشمند داده (Data Scientist) وجود دارد؟

پشت هر داشبورد داده و نموداری، افرادی هستند که داده‌ها را جمع‌آوری، تمیز، جابه‌جا و تفسیر می‌کنند. اگر قصد شرکت در بوت‌کمپ مهندسی داده را دارید پیشنهاد می‌کنیم با تفاوت‌های این دو حوزه شغلی آشنا شوید. این تفاوت‌ها عبارت‌اند از:

1. مسئولیت‌های اصلی: مهندسین داده زیرساخت‌های مورد نیاز برای انتقال و نگهداری داده‌ها را می‌سازند و از آن‌ها مراقبت می‌کنند. اما دانشمندان داده، داده‌ها تجزیه و تحلیل می‌کنند و از آن‌ها مدل می‌سازند.

2. ابزار و فناوری: اسپارک، کافکا، ایرفلو و پلتفرم‌های ابری از مهم‌ترین ابزار و فناوری مورد نیاز مهندسین داده است. اما دانشمندان داده از پایتون، R، تنسور فلو و تبلو استفاده می‌کنند.

3. شرایط همکاری با سایر تیم‌ها: مهندس داده، داده‌های تمیز و ساختاریافته در اختیار اعضای تیم قرار می‌دهد. اما دانشمندان داده از این اطلاعات برای پیش‌بینی و توصیه‌های مختلف به صاحبین کسب‌وکار استفاده می‌کنند.

4. آموزش و مهارت‌های مورد استفاده: مهندسین داده باید در زمینه علوم کامپیوتر یا مهندسی نرم‌افزار تحصیل کرده باشند. در مقابل تحصیلات دانشمند داده باید در زمینه ریاضی، آمار یا علوم داده باشد.

5. چشم‌انداز شغلی: مهندس داده می‌تواند در زمینه تهیه زیر ساخت فضای ابری و SaaS فعالیت کند. دانشمندان داده نیز می‌توانند در زمینه‌های امور مالی، مراکز بهداشتی-درمانی و ... مشغول به کار شوند.

آیا نیاز است که به زبان‌های برنامه‌نویسی مانند Python و SQL تسلط پیدا کنم؟

بله. زبان‌های برنامه‌نویسی مانند Python و SQL از موارد ضروری برای مهندسان داده است که در دوره مهندسی داده با آن‌ها آشنا خواهید شد.

آیا نیاز به داشتن مدرک دانشگاهی در زمینه مهندسی داده است؟

خیر. داشتن مدرک دانشگاهی برای فعالیت به‌عنوان مهندس داده ضروری نیست. شما می‌توانید با دیدن آموزش مهندسی داده مهارت‌های فنی و توانایی‌های خود را ارتقا دهید. در دوره data engineering شما با انجام پروژه‌های شخصی می‌توانید علاوه‌بر یادگیری مباحث رزومه قوی‌تری داشته باشید.

برای یادگیری مهندسی داده به چه منابع و ابزارهایی نیاز داریم؟

برای این‌که مهندس داده‌ای ماهر شوید لازم است ابزارهای مختلف از لینوکس گرفته تا محیط‌های مجازی را بشناسید. پادکست‌ها و وبلاگ‌های تخصصی منابع مناسبی برای یادگیری این دانش هستند. ابزارهای مورد نیاز برای مهندسان داده عبارت‌اند از:

  • زبان‌ها و پایگاه داده: Python, SQL, PostgreSQL, MongoDB
  • پردازش داده‌ها: Apache Spark, Apache Kafka
  • ابزارهای ارکستراسیون: Apache Airflow
  • ابزارهای مدرن برای تبدیل داده: DBT) data build tool)
  • زیرساخت ابری: سرویس‌های مرتبط با داده در پلتفرم‌هایی مانند GCP یا Azure

شرکت در بوت‌کمپ مهندسی داده به چه کسانی پیشنهاد می‌شود؟

اگر قصد یادگیری دقیق و عملی مهندسی داده را دارید و می‌خواهید در سریع‌ترین زمان ممکن به این حوزه مسلط شوید می‌توانید در بوت‌کمپ مهندسی داده شرکت کنید. این بوت‌کمپ مناسب افرادی است که قصد تغییر شغل را دارند یا در حال حاضر در زمینه توسعه نرم‌افزار یا تحلیل داده فعالیت می‌کنند. فارغ‌التحصیلان دانشگاه، مخصوصا دانشجویان رشته کامپیوتر نیز می‌توانند در دوره‌های مهندسی داده شرکت کنند.

بازار کار Data Engineering در ایران و خارج از کشور چطور است؟

چه در ایران و چه در خارج از کشور مهندسی داده یکی از رشته‌های پرتقاضا در زمینه فناوری است. با گسترش استفاده از داده‌ها و هوش مصنوعی مشاغل مختلف به مهندسان داده ارشد در زمینه فضای ابری،استریمینگ و حاکمیت داده نیاز دارند. کشورهای در حال توسعه نیز بیشتر به نیروی کار جونیور نیاز دارند. در ایران هم با توجه به افزایش کاربران اینترنت و رشد سرمایه‌گذاری شرکت‌ها تقاضا برای نیروی مهندس داده بیشتر شده است.

بوت‌کمپ مهندسی داده چه سرفصل‌هایی دارد؟

از مهم‌ترین سرفصل‌های بوت‌کمپ مهندسی داده می‌توان به موارد زیر اشاره کرد:
۱. مباحث مقدماتی: آشنایی با اصول برنامه‌نویسی Python، مفاهیم مقدماتی SQL و مبانی Git/GitHub

۲. مدیریت پایگاه داده: طراحی و کار با پایگاه داده رابطه‌ای و NoSQL و مدیریت داده‌ها

۳. ساخت Pipeline: پیاده‌سازی ETL/ELT، استفاده از ابزارهای ارکستراسیون مانند AirFlow و ابزارهای تبدیل داده مانند dbt

۴. کار با داده‌های بزرگ: پردازش داده‌های حجیم با استفاده از PySpark یا فریم‌ورک‌های دیگر Big Data

۵. پردازش استریمینگ: آشنایی با مفاهیم داده‌ها و استفاده از ابزارهایی مانند Pub/Sub یا Apache Beam

۶. زیرساخت ابری و داکر: استقرار برنامه‌ها با Docker و آشنایی با سرویس‌های ابری مانند GCP یا AWS

آیا در دوره‌های مهندسی داده پروژه عملی انجام می‌شود؟

بله. با شرکت در این دوره‌ها شما پروژه‌های عملی خود را خواهید داشت. این پروژه‌ها را می‌توانید، به‌عنوان نمونه‌کار، در آینده در رزومه خود قرار دهید.

مشاهده بیشتر
دانشکار
لوگو ساماندهی دانشکار-SAMANDEHI
دارای مجوز رسمی کاریابی الکترونیکیاز وزارت کار، تعاون و رفاه اجتماعی
لوگو نماد اعتماد دانشکار-ENAMAD
© ۱۴۰۴ تمام حقوق و محتویات این سایت متعلق به شرکت میزان بنیانمی باشد