هوش مصنوعی لبه‌ای چیست؟

هوش مصنوعی لبه‌ای چیست؟

هوش مصنوعی لبه‌ای، هوش را به جاهایی که داده‌ها متولد می‌شوند، هدایت می‌کند. شاید فانتزی به نظر برسد، اما ایده اصلی ساده است: تفکر را درست کنار حسگر انجام دهید تا نتایج همین الان، نه بعداً، نمایش داده شوند. شما سرعت، قابلیت اطمینان و یک داستان حریم خصوصی مناسب را بدون دخالت فضای ابری در هر تصمیمی، دریافت می‌کنید. بیایید آن را باز کنیم - میانبرها و ماموریت‌های جانبی نیز شامل می‌شوند. 😅

مقالاتی که شاید بعد از این مطلب دوست داشته باشید بخوانید:

🔗 هوش مصنوعی مولد چیست؟
توضیح واضح در مورد هوش مصنوعی مولد، نحوه عملکرد و کاربردهای عملی آن.

🔗 هوش مصنوعی عامل‌گرا چیست؟
مروری بر هوش مصنوعی عامل‌گرا، رفتارهای خودمختار و الگوهای کاربردی در دنیای واقعی.

🔗 مقیاس‌پذیری هوش مصنوعی چیست؟
یاد بگیرید که چگونه سیستم‌های هوش مصنوعی را به طور قابل اعتماد، کارآمد و مقرون به صرفه مقیاس‌بندی کنید.

🔗 چارچوب نرم‌افزاری برای هوش مصنوعی چیست؟
تجزیه و تحلیل چارچوب‌های نرم‌افزاری هوش مصنوعی، مزایای معماری و اصول پیاده‌سازی.

هوش مصنوعی لبه‌ای چیست؟ تعریف سریع 🧭

هوش مصنوعی لبه‌ای (Edge AI) روشی است که در آن مدل‌های یادگیری ماشین آموزش‌دیده مستقیماً روی یا نزدیک دستگاه‌هایی که داده‌ها را جمع‌آوری می‌کنند - تلفن‌ها، دوربین‌ها، ربات‌ها، اتومبیل‌ها، پوشیدنی‌ها، کنترل‌کننده‌های صنعتی و هر چیز دیگری - اجرا می‌شوند. به جای ارسال داده‌های خام به سرورهای دوردست برای تجزیه و تحلیل، دستگاه ورودی‌ها را به صورت محلی پردازش می‌کند و فقط خلاصه‌ها را ارسال می‌کند یا اصلاً چیزی ارسال نمی‌کند. رفت و برگشت کمتر، تأخیر کمتر، کنترل بیشتر. اگر توضیحی تمیز و بی‌طرف از فروشنده می‌خواهید، از اینجا شروع کنید. [1]

چه چیزی هوش مصنوعی لبه (Edge AI) را واقعاً مفید می‌کند؟ 🌟

  • تأخیر کم - تصمیمات روی دستگاه اتفاق می‌افتند، بنابراین پاسخ‌ها برای وظایف ادراکی مانند تشخیص شیء، تشخیص کلمه بیدارباش یا هشدارهای ناهنجاری، فوری به نظر می‌رسند. [1]

  • حریم خصوصی بر اساس محل - داده‌های حساس می‌توانند روی دستگاه باقی بمانند، که باعث کاهش افشای اطلاعات و کمک به بحث‌های مربوط به حداقل‌سازی داده‌ها می‌شود. [1]

  • صرفه‌جویی در پهنای باند - ارسال ویژگی‌ها یا رویدادها به جای جریان‌های خام. [1]

  • انعطاف‌پذیری - در طول اتصال ناقص کار می‌کند.

  • کنترل هزینه - چرخه‌های محاسبات ابری کمتر و خروجی کمتر.

  • آگاهی از محیط - دستگاه محیط را «حس» می‌کند و خود را با آن وفق می‌دهد.

حکایتی کوتاه: یک طرح آزمایشی خرده‌فروشی، آپلودهای ثابت دوربین را با طبقه‌بندی فرد در مقابل شیء روی دستگاه جایگزین کرد و فقط تعداد ساعتی و کلیپ‌های استثنا را ارائه داد. نتیجه: هشدارهای زیر ۲۰۰ میلی‌ثانیه در لبه قفسه و حدود ۹۰٪ کاهش در ترافیک آپ‌لینک - بدون تغییر قراردادهای WAN فروشگاه. (روش: استنتاج محلی، دسته‌بندی رویدادها، فقط ناهنجاری‌ها.)

هوش مصنوعی لبه‌ای در مقابل هوش مصنوعی ابری - مقایسه سریع 🥊

  • جایی که محاسبات اتفاق می‌افتد : لبه = روی دستگاه/نزدیک دستگاه؛ ابر = مراکز داده از راه دور.

  • تأخیر : لبه ≈ بلادرنگ؛ ابر دارای رفت و برگشت است.

  • جابجایی داده‌ها : ابتدا فیلترها/فشرده‌سازی‌های لبه‌ای انجام می‌شوند؛ فضای ابری عاشق آپلودهای با کیفیت بالا است.

  • قابلیت اطمینان : لبه به صورت آفلاین اجرا می‌شود؛ ابر به اتصال نیاز دارد.

  • مدیریت : لبه از به حداقل رساندن داده‌ها پشتیبانی می‌کند؛ ابر، نظارت را متمرکز می‌کند. [1]

این یا آن نیست. سیستم‌های هوشمند هر دو را با هم ترکیب می‌کنند: تصمیم‌گیری سریع محلی، تجزیه و تحلیل عمیق‌تر و یادگیری ناوگان به صورت متمرکز. پاسخ ترکیبی کسل‌کننده و درست است.

نحوه عملکرد هوش مصنوعی لبه‌ای (Edge AI) در پشت صحنه 🧩

  1. حسگرها سیگنال‌های خام - فریم‌های صوتی، پیکسل‌های دوربین، تپ‌های IMU و رد لرزش - را ثبت می‌کنند.

  2. پیش‌پردازش، آن سیگنال‌ها را به ویژگی‌های سازگار با مدل تغییر شکل می‌دهد.

  3. زمان اجرای استنتاج، یک مدل فشرده را با استفاده از شتاب‌دهنده‌ها در صورت وجود، روی دستگاه اجرا می‌کند.

  4. پس‌پردازش، خروجی‌ها را به رویدادها، برچسب‌ها یا اقدامات کنترلی تبدیل می‌کند.

  5. تله‌متری فقط موارد مفید را آپلود می‌کند: خلاصه‌ها، ناهنجاری‌ها یا بازخوردهای دوره‌ای.

LiteRT گوگل (که قبلاً TensorFlow Lite نام داشت)، ONNX Runtime OpenVINO اینتل . این زنجیره ابزارها با ترفندهایی مانند کوانتیزاسیون و ادغام عملگرها، از بودجه‌های محدود برق/حافظه، توان عملیاتی را کاهش می‌دهند. اگر به جزئیات علاقه دارید، مستندات آنها کامل است. [3][4]

جایی که خودش را نشان می‌دهد - موارد استفاده واقعی که می‌توانید به آنها اشاره کنید 🧯🚗🏭

  • دید در حاشیه : دوربین‌های زنگ در (انسان در مقابل حیوانات خانگی)، اسکن قفسه در فروشگاه‌ها، پهپادهایی که نقص‌ها را تشخیص می‌دهند.

  • صدای روی دستگاه : کلمات بیدارباش، دیکته، تشخیص نشت در گیاهان.

  • اینترنت اشیا صنعتی : موتورها و پمپ‌ها قبل از خرابی از نظر ناهنجاری‌های ارتعاشی پایش می‌شوند.

  • خودرو : نظارت بر راننده، تشخیص خط، دستیار پارک - در حالت نیمه‌خودکار یا توقف کامل.

  • مراقبت‌های بهداشتی : پوشیدنی‌ها آریتمی‌ها را به صورت محلی علامت‌گذاری می‌کنند؛ خلاصه‌ها را بعداً همگام‌سازی می‌کنند.

  • گوشی‌های هوشمند : بهبود عکس، تشخیص تماس‌های ناخواسته، لحظات «چطور گوشی من این کار را آفلاین انجام داد؟»

برای تعاریف رسمی (و بحث «مه در مقابل لبه»)، ​​به مدل مفهومی NIST مراجعه کنید. [2]

سخت‌افزاری که آن را سریع می‌کند 🔌

نام چند پلتفرم زیاد بررسی می‌شود:

  • انویدیا جتسون - ماژول‌های مبتنی بر پردازنده گرافیکی برای ربات‌ها/دوربین‌ها - حس چاقوی ارتش سوئیس برای هوش مصنوعی تعبیه‌شده.

  • Google Edge TPU + LiteRT - استنتاج صحیح کارآمد و زمان اجرای ساده برای پروژه‌های فوق‌العاده کم‌مصرف. [3]

  • موتور عصبی اپل (ANE) - یادگیری ماشینی دقیق روی دستگاه برای آیفون، آیپد و مک؛ اپل کارهای عملی در مورد استقرار کارآمد ترانسفورماتورها روی ANE را منتشر کرده است. [5]

  • پردازنده‌های مرکزی/گرافیک‌های مجتمع/واحدهای پردازش عصبی اینتل با OpenVINO - «یک بار بنویس، همه جا مستقر کن» در سخت‌افزار اینتل؛ بهینه‌سازی‌های مفید انجام می‌شود.

  • ONNX Runtime در همه جا - یک Runtime خنثی با ارائه دهندگان اجرای قابل اتصال در تلفن ها، رایانه های شخصی و دروازه ها. [4]

آیا به همه آنها نیاز دارید؟ نه واقعاً. یک مسیر قوی را انتخاب کنید که با ناوگان شما مطابقت داشته باشد و به آن پایبند باشید - ریزش نیرو دشمن تیم‌های یکپارچه است.

مجموعه نرم‌افزار - گشتی کوتاه در آن 🧰

  • فشرده‌سازی مدل : کوانتیزاسیون (اغلب به عدد صحیح ۸)، هرس کردن، تقطیر.

  • شتاب‌دهی در سطح اپراتور : هسته‌هایی که با سیلیکون شما تنظیم شده‌اند.

  • زمان اجرا : LiteRT، ONNX Runtime، OpenVINO. [3][4]

  • بسته‌های استقرار : کانتینرها/بسته‌های برنامه؛ گاهی اوقات میکروسرویس‌ها روی دروازه‌ها.

  • MLOps برای لبه : به‌روزرسانی‌های مدل OTA، پیاده‌سازی A/B، حلقه‌های تله‌متری.

  • کنترل‌های حریم خصوصی و امنیتی : رمزگذاری روی دستگاه، بوت امن، گواهی، مناطق محصور.

مورد کوچک: یک تیم پهپاد بازرسی، یک آشکارساز سنگین وزن را به یک مدل دانشجویی کوانتیزه شده برای LiteRT تبدیل کردند، سپس NMS را روی دستگاه ادغام کردند. زمان پرواز به لطف کاهش محاسبات حدود ۱۵٪ بهبود یافت؛ حجم آپلود به فریم‌های استثنا کاهش یافت. (روش: جمع‌آوری مجموعه داده‌ها در محل، کالیبراسیون پس از کوانت، حالت سایه A/B قبل از راه‌اندازی کامل.)

جدول مقایسه - گزینه‌های محبوب هوش مصنوعی اج 🧪

حرف حساب: این میز، درست مثل دنیای واقعی، پر از خودخواهی و کمی نامرتب است.

ابزار / پلتفرم بهترین مخاطب قیمت در میدان مسابقه چرا در لبه کار می‌کند؟
LiteRT (قبلاً TFLite) اندروید، سازندگان، جاسازی شده دلار به دلار زمان اجرای کم حجم، مستندات قوی، قابلیت‌های ویژه موبایل. به خوبی در حالت آفلاین کار می‌کند. [3]
زمان اجرای ONNX تیم‌های چند پلتفرمی $ قالب خنثی، سخت‌افزارهای پشتیبان قابل اتصال - سازگار با آینده. [4]
اوپن وینو استقرارهای متمرکز بر اینتل $ یک جعبه ابزار، چندین هدف اینتل؛ مسیرهای بهینه‌سازی مفید.
انویدیا جتسون رباتیک، بینایی-محور $$ به $$$ شتاب‌دهی با پردازنده گرافیکی در یک جعبه ناهار؛ اکوسیستمی گسترده.
اپل ANE برنامه‌های iOS/iPadOS/macOS هزینه دستگاه یکپارچه‌سازی دقیق سخت‌افزار/نرم‌افزار؛ ​​کار با ترانسفورماتور ANE به خوبی مستند شده است. [5]
لبه TPU + LiteRT پروژه‌های فوق کم‌مصرف $ استنتاج کارآمد int8 در لبه؛ کوچک اما توانمند. [3]

چگونه یک مسیر هوش مصنوعی لبه‌ای انتخاب کنیم - یک درخت تصمیم کوچک 🌳

  • زندگی شما در زمان واقعی سخت است؟ با شتاب‌دهنده‌ها + مدل‌های کوانتیزه شروع کنید.

  • انواع دستگاه‌ها؟ برای قابلیت حمل، ONNX Runtime یا OpenVINO را ترجیح می‌دهید. [4]

  • ارسال یک اپلیکیشن موبایل؟ LiteRT مسیر کمترین مقاومت است. [3]

  • رباتیک یا تجزیه و تحلیل دوربین؟ گزینه‌های سازگار با پردازنده گرافیکی جتسون در زمان صرفه‌جویی می‌کنند.

  • وضعیت سختگیرانه حفظ حریم خصوصی؟ داده‌ها را محلی نگه دارید، در حالت استراحت رمزگذاری کنید، از مجموع لاگ‌ها استفاده کنید، نه فریم‌های خام.

  • تیم کوچکی دارید؟ از ابزارهای عجیب و غریب دوری کنید - کسل کننده بودن زیباست.

  • مدل‌ها مرتباً تغییر می‌کنند؟ از روز اول OTA و تله‌متری را برنامه‌ریزی کنید.

خطرات، محدودیت‌ها و بخش‌های خسته‌کننده اما مهم 🧯

  • رانش مدل - محیط‌ها تغییر می‌کنند؛ توزیع‌ها را زیر نظر بگیرید، حالت‌های سایه را اجرا کنید، به صورت دوره‌ای آموزش مجدد دهید.

  • سقف محاسبات - حافظه/قدرت محدود، مدل‌های کوچک‌تر یا دقت کمتر را می‌طلبد.

  • امنیت - فرض را بر دسترسی فیزیکی بگذارید؛ از بوت امن، مصنوعات امضا شده، گواهی، و سرویس‌های با حداقل امتیاز استفاده کنید.

  • مدیریت داده‌ها - پردازش محلی کمک می‌کند، اما شما هنوز به رضایت، نگهداری و سنجش از راه دور نیاز دارید.

  • عملیات ناوگان - دستگاه‌ها در بدترین زمان‌ها آفلاین می‌شوند؛ به‌روزرسانی‌های معوق و آپلودهای قابل از سرگیری طراحی کنید.

  • ترکیب استعدادها - Embedded + ML + DevOps ترکیبی رنگارنگ است؛ آموزش متقابل را از همان ابتدا شروع کنید.

یک نقشه راه کاربردی برای ارسال چیزی مفید 🗺️

  1. یک مورد استفاده با تشخیص نقص مقدار قابل اندازه‌گیری در خط ۳، کلمه بیدارباش روی بلندگوی هوشمند و غیره

  2. یک مجموعه داده مرتب که منعکس کننده محیط هدف است، جمع آوری کنید؛ نویز را برای مطابقت با واقعیت تزریق کنید.

  3. نمونه اولیه روی کیت توسعه نزدیک به سخت‌افزار تولید.

  4. مدل را با کوانتیزاسیون/هرس فشرده کنید؛ میزان از دست دادن دقت را صادقانه اندازه‌گیری کنید. [3]

  5. استنتاج را در یک API تمیز با فشار معکوس و نگهبانان قرار دهید - زیرا دستگاه‌ها ساعت 2 بامداد هنگ می‌کنند

  6. طراحی تله‌متری که به حریم خصوصی احترام می‌گذارد: ارسال شمارش، هیستوگرام، ویژگی‌های استخراج‌شده از لبه.

  7. امنیت را تقویت کنید : فایل‌های باینری امضا شده، بوت امن، حداقل باز بودن سرویس‌ها.

  8. طرح OTA : انتشار تدریجی، انتشار نسخه‌های آزمایشی، بازگشت فوری

  9. در یک محفظه‌ی پیچ‌درپیچِ گوشه‌دار خلبانی کن - اگر آنجا دوام بیاورد، هر جای دیگری هم دوام خواهد آورد.

  10. مقیاس‌بندی با یک دفترچه راهنما : چگونه مدل‌ها را اضافه می‌کنید، کلیدها را می‌چرخانید، داده‌ها را بایگانی می‌کنید - بنابراین پروژه شماره ۲ هرج و مرج نخواهد بود.

سوالات متداول - پاسخ‌های کوتاه به کنجکاوی‌های مربوط به هوش مصنوعی لبه چیست

آیا هوش مصنوعی لبه‌ای فقط یک مدل کوچک را روی یک کامپیوتر کوچک اجرا می‌کند؟
تقریباً بله، اما اندازه کل داستان نیست. همچنین در مورد بودجه‌های تأخیر، وعده‌های حفظ حریم خصوصی و هماهنگ کردن بسیاری از دستگاه‌ها که به صورت محلی عمل می‌کنند اما در سطح جهانی یاد می‌گیرند، نیز صادق است. [1]

آیا می‌توانم در شرایط بحرانی هم تمرین کنم؟
آموزش/شخصی‌سازی سبک روی دستگاه وجود دارد؛ آموزش‌های سنگین‌تر هنوز به صورت مرکزی اجرا می‌شوند. اگر ماجراجو هستید، ONNX Runtime گزینه‌های آموزش روی دستگاه را مستند می‌کند. [4]

هوش مصنوعی لبه‌ای در مقابل محاسبات مه چیست؟
مه و لبه پسرعمو هستند. هر دو محاسبات را به منابع داده نزدیک‌تر می‌کنند، گاهی اوقات از طریق دروازه‌های نزدیک. برای تعاریف رسمی و زمینه، به NIST مراجعه کنید. [2]

آیا هوش مصنوعی لبه همیشه حریم خصوصی را بهبود می‌بخشد؟
این کمک می‌کند - اما جادویی نیست. شما هنوز به حداقل‌سازی، مسیرهای به‌روزرسانی امن و ثبت دقیق وقایع نیاز دارید. با حریم خصوصی به عنوان یک عادت رفتار کنید، نه یک گزینه.

مطالب عمیقی که شاید واقعاً بخوانید 📚

۱) بهینه‌سازی مدل که دقت را از بین نمی‌برد

کوانتیزاسیون می‌تواند حافظه را کاهش داده و سرعت عملیات را افزایش دهد، اما با داده‌های نماینده کالیبره شود، در غیر این صورت مدل ممکن است در جایی که مخروط‌های ترافیکی وجود دارد، سنجاب‌ها را توهم کند. تقطیر - معلمی که دانش‌آموز کوچکتری را راهنمایی می‌کند - اغلب معناشناسی را حفظ می‌کند. [3]

۲) زمان‌های اجرای استنتاج لبه در عمل

مفسر LiteRT عمداً در زمان اجرا، حافظه را بدون نیاز به ایستا پردازش می‌کند. ONNX Runtime از طریق ارائه‌دهندگان اجرا به شتاب‌دهنده‌های مختلف متصل می‌شود. هیچ‌کدام از این دو، راه‌حل قطعی نیستند؛ هر دو راه‌حل‌های قطعی هستند. [3][4]

۳) استحکام در طبیعت

گرما، گرد و غبار، قدرت ناپایدار، وای‌فای بی‌نظم: نگهبانانی بسازید که خطوط لوله را مجدداً راه‌اندازی کنند، تصمیمات را ذخیره کنند و هنگام بازگشت شبکه، آنها را تطبیق دهند. هرچند که این کار به اندازه توجه به سرها جذاب نیست - اما حیاتی‌تر است.

عبارتی که در جلسات تکرار خواهید کرد - هوش مصنوعی لبه‌ای چیست 🗣️

هوش مصنوعی لبه‌ای (Edge AI) هوش را به داده‌ها نزدیک‌تر می‌کند تا محدودیت‌های عملی تأخیر، حریم خصوصی، پهنای باند و قابلیت اطمینان را برآورده کند. جادو در یک تراشه یا چارچوب نیست - بلکه در انتخاب عاقلانه‌ی اینکه چه چیزی را کجا محاسبه کند، نهفته است.

سخنان پایانی - خیلی طولانی بود، من آن را نخواندم 🧵

هوش مصنوعی لبه‌ای (Edge AI) مدل‌ها را نزدیک به داده‌ها اجرا می‌کند، بنابراین محصولات سریع، خصوصی و محکم به نظر می‌رسند. شما استنتاج محلی را با نظارت ابری ترکیب خواهید کرد تا از هر دو مزیت بهره‌مند شوید. زمان اجرایی را انتخاب کنید که با دستگاه‌های شما مطابقت داشته باشد، در صورت امکان به شتاب‌دهنده‌ها تکیه کنید، مدل‌ها را با فشرده‌سازی مرتب نگه دارید و عملیات ناوگان را طوری طراحی کنید که انگار شغل شما به آن بستگی دارد - چون خب، ممکن است این اتفاق بیفتد. اگر کسی بپرسد هوش مصنوعی لبه‌ای چیست ، بگویید: تصمیمات هوشمند، گرفته شده به صورت محلی و به موقع. سپس لبخند بزنید و موضوع را به باتری‌ها تغییر دهید. 🔋🙂


منابع

  1. IBM - هوش مصنوعی لبه‌ای چیست؟ (تعریف، مزایا).
    https://www.ibm.com/think/topics/edge-ai

  2. NIST - SP 500-325: مدل مفهومی محاسبات مه (زمینه رسمی برای مه/لبه).
    https://csrc.nist.gov/pubs/sp/500/325/final

  3. گوگل ای‌آی اج - LiteRT (که قبلاً TensorFlow Lite نام داشت) (زمان اجرا، کوانتیزاسیون، مهاجرت).
    https://ai.google.dev/edge/litert

  4. ONNX Runtime - آموزش روی دستگاه (آموزش روی دستگاه‌های لبه‌ای + زمان اجرای قابل حمل).
    https://onnxruntime.ai/docs/get-started/training-on-device.html

  5. تحقیقات یادگیری ماشینی اپل - استقرار ترانسفورماتورها در موتور عصبی اپل (یادداشت‌های مربوط به کارایی ANE).
    https://machinelearning.apple.com/research/neural-engine-transformers

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ