💸 بریجواتر میگوید شرکتهای بزرگ فناوری میتوانند در سال ۲۰۲۶ حدود ۶۵۰ میلیارد دلار در زیرساختهای هوش مصنوعی سرمایهگذاری کنند ↗
بریجواتر اساساً پرچم زرد را تکان میدهد: رونق هزینههای هوش مصنوعی به حدی در حال افزایش است که میتواند غیرقابل کنترل شود. این یادداشت، سرمایهگذاری مشترک آلفابت، آمازون، متا و مایکروسافت در زیرساختهای هوش مصنوعی را تقریباً 650 میلیارد دلار تخمین میزند که نسبت به رقم بسیار کمتر سال قبل افزایش یافته است. ( رویترز )
نکته جالب این است که فقط «لطفاً پردازندههای گرافیکی بیشتری» مطرح نیست. بلکه اثرات جانبی آن نیز مطرح است: فشار بر بازده نقدی، اتکا به سرمایه خارجی و این خطر که بخشی از این هزینهها به سرعت کافی به سود تبدیل نشود. رونقی که هنوز هم در حال رونق گرفتن است... اما با لبههای تیزتر، یا حداقل اینطور به نظر میرسد. ( رویترز )
🧑💼 OpenAI برای پیشبرد اهداف سازمانی خود، مشاوران را فراخواند ↗
OpenAI با تمرکز بیشتر بر فاز «واقعیسازی در محل کار» با شرکتهای مشاورهای بزرگ همکاری میکند تا به شرکتهای بزرگ کمک کند از مرحلهی آزمایشی و آزمایشی فراتر بروند. این یک بازی کاملاً شرکتی است، اما صادقانه بگویم، پول زیادی در آن نهفته است. ( TechCrunch )
لحن اینجا کمتر «دمو جذاب» و بیشتر «طرح راهاندازی، تدارکات، مدیریت، آموزش، و کل کاغذبازی» است. اگر تا به حال تلاش یک سازمان غولپیکر برای پذیرش فناوری جدید را تماشا کرده باشید، میدانید که چرا آنها افراد بالغ را به کار میگیرند. ( تککرانچ )
🧾 OpenAI همکاری خود را با غولهای مشاورهای عمیقتر میکند تا هوش مصنوعی سازمانی را فراتر از مرحله آزمایشی پیش ببرد ↗
همان حرکت اصلی، جزئیات بیشتر: OpenAI در حال رسمیسازی روابط عمیقتر با شرکتهای مشاورهای بزرگ است تا پذیرش سازمانی را سرعت بخشد و استقرارها را از مرحله «ما آن را در یک بخش امتحان کردیم» فراتر ببرد. این نیروی لازم برای جذب - و حفظ - حسابهای عظیم شرکتی است. ( رویترز )
همچنین یک داستان فشار ظریف در زیر آن وجود دارد: اگر قرار است به یک پلتفرم سازمانی پیشفرض تبدیل شوید، به اکوسیستمی نیاز دارید که بتواند شما را در مقیاس بزرگ پیادهسازی کند، نه فقط یک مدل عالی. لولهکشی غیرجذاب، آزاردهنده است. ( رویترز )
🕵️♀️ ناظران میگویند ابزارهای تصویربرداری هوش مصنوعی باید از قوانین حفظ حریم خصوصی پیروی کنند ↗
تنظیمکنندگان حریم خصوصی، تولید تصویر و خروجیهای چهرهمانند را دوباره زیر ذرهبین قرار میدهند - در اصل: اگر سیستم شما میتواند افراد واقعی را تشخیص دهد، تعهدات حفاظت از دادهها همچنان اعمال میشود. نه، ردای جادویی «اما مصنوعی است». ( روزنامهی The Register )
نتیجهی عملی این است که فشار بیشتری بر ارائهدهندگان خدمات انطباق با قوانین وارد میشود - بهویژه در مورد دادههای آموزشی، خطرات شباهت قابل شناسایی و نحوهی استقرار محصولات. این یکی از حوزههایی است که فناوری به سرعت حرکت میکند و قوانین پشت سر آن به آرامی پیش میروند... سپس ناگهان سرعت میگیرند. ( روزنامهی The Register )
🛡️ انویدیا امنیت سایبری مبتنی بر هوش مصنوعی را به زیرساختهای حیاتی جهان میآورد ↗
انویدیا در حال حاضر در حال توسعهی جایگاه هوش مصنوعی در دفاع است و موارد استفاده از امنیت سایبری مرتبط با زیرساختهای حیاتی را هدف قرار داده است. پیام کاملاً واضح است: با اتصال بیشتر سیستمها - و پشتیبانی بیشتر از هوش مصنوعی - سطح حمله پیچیدهتر میشود، بنابراین دفاعها نیز باید ارتقا یابند. ( اتاق خبر انویدیا )
همچنین انویدیا همچنان فراتر از «ما تراشه میفروشیم» به «ما یک داستان پلتفرم هستیم» ادامه میدهد، که... بلندپروازانه است، اما تصادفی نیست. امنیت یکی از معدود جاهایی است که هزینههای هوش مصنوعی میتواند به سرعت تأیید شود زیرا ترس یک عامل قوی برای کاهش بودجه است. ( اتاق خبر انویدیا )
🚰 Breakviews: شرکتهای بزرگ فناوری تنها تا حدی خطر آب ناشی از هوش مصنوعی را حل خواهند کرد ↗
این یکی کمی مثل دوش آب سرد است: مراکز داده جدیدتر میتوانند در مصرف آب کارآمدتر باشند، اما مسئله بزرگتر محل ساخت آنهاست - خوشهها اغلب در مکانهایی قرار دارند که از قبل با تنش آبی مواجه هستند. بنابراین افزایش بهرهوری مفید است، اما محدودیت اساسی را از بین نمیبرد. ( رویترز )
استدلال اساساً این است که «بهینهسازیهای فنی تمام راه حل نیستند.» اگر زیرساخت هوش مصنوعی به گسترش خود ادامه دهد، به همان اندازه که به یک داستان نوآوری جهانی تبدیل میشود، به یک مشکل منابع محلی نیز تبدیل میشود - مانند تلاش برای عبور دادن شلنگ آتشنشانی از شیر آب باغچه. ( رویترز )
سوالات متداول
هشدار بریجواتر در مورد هزینههای زیرساخت هوش مصنوعی در سال ۲۰۲۶ چیست؟
بریجواتر هشدار میدهد که رونق هزینههای سرمایهای هوش مصنوعی ممکن است به اندازهای بزرگ شود که مشکلات درجه دو ایجاد کند، نه اینکه صرفاً پیشرفت مدل را تسریع کند. این یادداشت، سرمایهگذاری روی زیرساختهای هوش مصنوعی توسط آلفابت، آمازون، متا و مایکروسافت را در سال ۲۰۲۶ تقریباً ۶۵۰ میلیارد دلار پیشبینی میکند. نکته قابل توجه این است که اگر بازده سرمایهگذاریها کاهش یابد، تامین مالی محدود شود یا تقاضا با افزایش تولید مطابقت نداشته باشد، مقیاس سرمایهگذاری میتواند ریسک را افزایش دهد.
چگونه هزینههای هنگفت زیرساخت هوش مصنوعی میتواند بر بازخرید سهام، سود سهام و بازده نقدی تأثیر بگذارد؟
وقتی شرکتها هزینههای زیرساخت هوش مصنوعی را افزایش میدهند، اغلب جریان نقدی آزاد کمتری برای بازده سهامداران مانند بازخرید و سود سهام در دسترس دارند. نکته بریجواتر این است که این سطح از هزینه میتواند بر بازده نقدی فشار وارد کند و اتکا به سرمایه خارجی را افزایش دهد. اگر پروژهها برای تبدیل شدن به سود زمان بیشتری طول بکشند، سرمایهگذاران ممکن است نسبت به جدول زمانی، حاشیه سود و فرضیات بازگشت سرمایه حساستر شوند.
چرا ممکن است برخی از سرمایهگذاریهای زیرساخت هوش مصنوعی به سرعت نتیجه ندهند؟
خرید کامپیوترهای بیشتر به معنای کسب سود بیشتر از آن نیست. اگر شرکتها ظرفیت را قبل از درآمد مشخص و مقیاسپذیر ایجاد کنند، شکاف بین هزینه و بازده میتواند افزایش یابد. ریسک برجسته، زمانبندی است: رونق میتواند همچنان رونق باقی بماند، اما اگر کسب درآمد با آن همگام نباشد، لبههای تیزتری خواهد داشت. در بسیاری از چرخهها، مشکل ناپدید شدن تقاضا نیست - بلکه دیرتر رسیدن بازدهها از زمان مورد انتظار است.
چگونه همکاری OpenAI با شرکتهای مشاورهای به شرکتها کمک میکند تا از طرحهای آزمایشی فراتر روند؟
هدف این است که آزمایشهای «دمو جذاب» به استقرارهایی تبدیل شوند که از تدارکات، حاکمیت، آموزش و عملیات روزمره جان سالم به در ببرند. شرکتهای مشاورهای به سازمانهای بزرگ کمک میکنند تا برنامههای راهاندازی را استانداردسازی کنند، ذینفعان را همسو کنند و تغییرات را در بخشهای مختلف مدیریت کنند. رویترز و تککرانچ هر دو آن را به عنوان عضله اکوسیستم معرفی میکنند: برای اینکه یک پلتفرم پیشفرض سازمانی باشد، پیادهسازی در مقیاس بزرگ به اندازه خود مدل اهمیت دارد.
منظور ناظران حریم خصوصی از اینکه میگویند ابزارهای تصویربرداری هوش مصنوعی هنوز تحت قوانین حریم خصوصی قرار میگیرند، چیست؟
رگولاتورها اعلام میکنند که وقتی خروجیها شبیه افراد واقعی باشند، «مصنوعی» به طور خودکار تعهدات حفاظت از دادهها را از بین نمیبرد. نگرانیهای عملی شامل منشأ دادههای آموزشی، خطرات مربوط به شباهت قابل شناسایی و نحوه استقرار ابزارهای تصویری در محصولات است. نکته مهم، فشار بیشتر بر ارائهدهندگان و کاربران برای رعایت قوانین است، به خصوص در مواردی که چهرههای واقعگرایانه یا خروجیهای شبیه به انسان میتوانند باعث ایجاد مشکلات مربوط به حریم خصوصی و رضایت شوند.
چرا خطرات آب در مراکز داده به بخشی از بحث هوش مصنوعی تبدیل شده است؟
حتی اگر مراکز داده جدیدتر، بهرهوری آب را بهبود بخشند، محدودیت بزرگتر میتواند مکان باشد. استدلال رویترز بریکینگویوز این است که خوشهها اغلب در مناطقی که از قبل دچار تنش آبی هستند، قرار میگیرند و رشد هوش مصنوعی را به یک مشکل منابع محلی تبدیل میکنند. بهرهوری کمک میکند، اما ممکن است تأثیر ساخت و ساز در مقیاس بزرگ در مکانهای اشتباه را جبران نکند. انتخاب مکان میتواند به اندازه بهینهسازی فنی مهم باشد.