🧹 بازنشستگی GPT-4o، GPT-4.1، GPT-4.1 mini، و OpenAI o4-mini در ChatGPT ↗
OpenAI میگوید که به زودی تعدادی از مدلهای قدیمیتر ChatGPT - از جمله GPT-4o، GPT-4.1، GPT-4.1 mini و o4-mini - را حذف خواهد کرد، در حالی که دسترسی به API فعلاً بدون تغییر باقی میماند. این اساساً یک خانهتکانی بهاری است... با این تفاوت که این جارو چند مدل محبوب طرفداران را هدف قرار داده است.
بخش کمی تند ماجرا این است که آنها اعتراف میکنند GPT-4o «حسی» داشت که مردم دوست داشتند، اما استفاده از آن به شدت به سمت گزینههای جدیدتر متمایل شده است. بنابراین، بله، این همان حس کلاسیک «ما حرف شما را میشنویم، اما به هر حال انجامش میدهیم» است - رک و صریح، یا به سادگی کارآمد.
💰 یک منبع آگاه میگوید آمازون در حال مذاکره برای سرمایهگذاری ۵۰ میلیارد دلاری در OpenAI است ↗
طبق گزارشها، آمازون در حال مذاکره اولیه برای سرمایهگذاری تا سقف ۵۰ میلیارد دلار در OpenAI است. این رقم آنقدر بزرگ است که تقریباً دیگر معنایی ندارد - مانند زمانی که امتیاز بازی شما به نماد علمی تبدیل میشود.
همین گزارش میگوید که OpenAI به دنبال افزایش سرمایه عظیمی است و حامیان مالی قدرتمند دیگری نیز در حال دور زدن آن هستند. و بله، آمازون در حال حاضر سهم عمدهای در Anthropic دارد، بنابراین این مانند یک پوشش ریسک استراتژیک است... یا یک گرفتن دو دستی فرمان، بسته به اینکه چقدر احساس دراماتیکی دارید.
🪖 منابع میگویند پنتاگون با شرکت آنتروپیک بر سر استفاده از هوش مصنوعی در ارتش اختلاف نظر دارد ↗
طبق گزارشها، آنتروپیک و پنتاگون بر سر آنچه مجاز است - به ویژه موانعی که مواردی مانند هدفگیری سلاحهای خودمختار یا موارد استفاده از نظارت داخلی را مسدود میکنند - با هم اختلاف نظر دارند. موضع پنتاگون به این جمله نزدیکتر است که «اگر چیزی قانونی است، قابل استفاده است»، در حالی که آنتروپیک سعی دارد سیاست را در این گفتگو حفظ کند.
این موضوع به مذاکرات قراردادی به ارزش تا ۲۰۰ میلیون دلار گره خورده است، که باعث میشود تنش بیش از حد واقعی به نظر برسد. این یکی از آن لحظاتی است که «اخلاق هوش مصنوعی» دیگر یک بحث گروهی نیست و به کاغذبازی، ردیفهای بودجه و جلسات ناخوشایند تبدیل میشود.
🔎 بلومبرگ نیوز گزارش داد که پرپلکسیتی قرارداد ۷۵۰ میلیون دلاری هوش مصنوعی با مایکروسافت امضا کرده است ↗
طبق گزارشها، پرپلکسیتی قراردادی چند ساله به ارزش ۷۵۰ میلیون دلار برای استفاده از مایکروسافت آژور امضا کرده است که در آن، فاندری مایکروسافت به مرکز اصلی تأمین و اجرای مدلها - از جمله سیستمهای چندین آزمایشگاه بزرگ - تبدیل میشود. این یک حرکت جدی در مقیاسپذیری است و پرپلکسیتی را بیشتر به مدار مایکروسافت سوق میدهد (که البته تا زمانی که اینطور نباشد، دنج است).
نکته قابل توجه این است که آنها همچنین میگویند AWS همچنان ارائهدهنده زیرساخت ترجیحی آنهاست، بنابراین این یک جدایی کامل نیست - بیشتر شبیه اضافه کردن یک کلید آپارتمان دوم "برای احتیاط" است. همچنین، در پس زمینه اختلافات قانونی با آمازون وجود دارد که باعث میشود کل مثلث عشق ابری کمی نفرین شده به نظر برسد.
📉 سرمایهگذاران، سرمایهگذاریهای غولهای فناوری در حوزه هوش مصنوعی را که رشد کندتری را به همراه دارد، مجازات میکنند ↗
حال و هوای وال استریت: مطمئناً مبالغ هنگفتی را صرف هوش مصنوعی کنید - اما فقط در صورتی که رشد سریع و آشکار به نظر برسد. تضاد شدید بود: مایکروسافت پس از اینکه نتایج، نگرانیها در مورد شتاب فضای ابری را آرام نکرد، به شدت ضربه خورد، در حالی که متا با نشانههایی از موفقیت دستگاه تبلیغاتی مبتنی بر هوش مصنوعی خود، ظاهر شد.
اینطور نیست که سرمایهگذاران ناگهان از هزینههای هوش مصنوعی متنفر شوند... آنها فقط از هزینههای «به ما اعتماد کن برادر» متنفرند. که البته منصفانه است، حتی اگر باعث شود نقشههای راه محصول طوری به نظر برسند که انگار توسط یک حسابدار بسیار بیصبر ارزیابی میشوند.
🕵️ مهندس سابق گوگل به جرم سرقت اسرار هوش مصنوعی برای شرکتهای چینی محکوم شد ↗
لینوی دینگ، مهندس سابق گوگل، در دادگاهی در ایالات متحده به جرم سرقت اسرار تجاری مرتبط با هوش مصنوعی محکوم شد و دادستانها گفتند که این اطلاعات قرار بوده به دو شرکت چینی که او با آنها کار میکرده، سود برساند. این اتهامات حول اسناد محرمانهای میچرخد که به زیرساختهای مورد استفاده برای آموزش مدلهای بزرگ هوش مصنوعی - بخش نه چندان جذاب اما بسیار مهم کل عملیات - مربوط میشود.
این پرونده بخشی از تلاش گستردهتر ایالات متحده برای سرکوب انتقال فناوریهای حساس است و یادآوری میکند که «رقابت هوش مصنوعی» فقط شامل بنچمارکها و نمایش محصولات نمیشود، بلکه اتهامات جاسوسی و عواقب قانونی بسیار ناخوشایندی را نیز در بر دارد.
سوالات متداول
کنار گذاشتن GPT-4o توسط OpenAI در ChatGPT به چه معناست و کدام مدلها حذف میشوند؟
OpenAI میگوید که بهزودی چندین مدل قدیمیتر از جمله GPT-4o، GPT-4.1، GPT-4.1 mini و o4-mini را از انتخابگر مدل ChatGPT حذف خواهد کرد. این امر آنچه را که میتوانید در ChatGPT انتخاب کنید تغییر میدهد، نه لزوماً آنچه در جاهای دیگر وجود دارد. OpenAI این حرکت را بهعنوان «خانهتکانی بهاری» توصیف میکند که ناشی از تغییر استفاده به سمت گزینههای جدیدتر است. اگر کار شما به رفتار یک مدل خاص بستگی دارد، انتظار برخی تنظیمات گردش کار را داشته باشید و بر اساس آن برنامهریزی کنید.
آیا دسترسی API به GPT-4o یا GPT-4.1 پس از حذف آنها از ChatGPT تغییر خواهد کرد؟
بر اساس آنچه در اینجا ذکر شده است، دسترسی به API فعلاً بدون تغییر است، حتی با وجود اینکه آن مدلها از ChatGPT حذف شدهاند. به عبارت دیگر، یک برنامه یا یکپارچهسازی ممکن است طبق معمول اجرا شود در حالی که انتخابگر مدل ChatGPT تغییر میکند. در بسیاری از خطوط تولید، رویکرد ایمنتر، پیگیری اعلانهای در دسترس بودن مدل و اجتناب از فرض هماهنگی کامل پیشنهادات ChatGPT و API است. اگر سازگاری مهم است، پشتیبانها را آماده نگه دارید.
چرا OpenAI تصمیم گرفت GPT-4o را بازنشسته کند، با اینکه کاربران «حس» آن را دوست داشتند؟
OpenAI صراحتاً اذعان میکند که GPT-4o «حسی» داشت که برخی افراد آن را ترجیح میدادند، اما میگوید که استفاده از آن به شدت به سمت مدلهای جدیدتر متمایل شده است. در عمل، محصولات اغلب پیشفرضها را محدود میکنند تا سردرگمی، سربار پشتیبانی و پراکندگی را کاهش دهند. این به معنای خیالی بودن ترجیح نیست - فقط به این معنی است که روند استفاده از آن پیشرو نبوده است. اگر از این حس و حال خوشتان آمده است، احتمالاً باید گزینههای جدیدتر را آزمایش کنید تا زمانی که یکی از آنها به همان شیوه با جریان کاری شما سازگار شود.
سرمایهگذاری گزارششده آمازون تا سقف ۵۰ میلیارد دلار در OpenAI چه معنایی برای رقابت در حوزه هوش مصنوعی خواهد داشت؟
طبق گزارشها، آمازون در حال مذاکرات اولیه برای سرمایهگذاری تا سقف ۵۰ میلیارد دلار در OpenAI است و در کنار آن، تلاش گستردهتری برای جمعآوری کمکهای مالی انجام خواهد داد. اگر این اتفاق بیفتد، میتواند نشاندهنده یک سرمایهگذاری استراتژیک بزرگ باشد - به خصوص که آمازون در حال حاضر سهم قابل توجهی در Anthropic دارد. بسته به شرایط، این سرمایهگذاری ممکن است مشارکتها، انتخابهای زیرساختی و پویاییهای رقابتی را در بین بزرگترین آزمایشگاههای هوش مصنوعی و ارائه دهندگان خدمات ابری شکل دهد. با توجه به مذاکرات اولیه، هیچ چیز قطعی نیست.
چرا پنتاگون و آنتروپیک بر سر موانع هوش مصنوعی نظامی بحث میکنند؟
گزارشها حاکی از آن است که وزارت دفاع ایالات متحده و شرکت آنتروپیک بر سر محدودیتهایی که استفادههایی مانند هدفگیری سلاحهای خودمختار یا نظارت داخلی را مسدود میکند، با هم اختلاف دارند. موضع پنتاگون بیشتر به این جمله نزدیک است که «اگر چیزی قانونی است، پس قابل استفاده است»، در حالی که آنتروپیک میخواهد محدودیتهای سیاسی قویتری از ابتدا در آن لحاظ شود. با توجه به اینکه مذاکرات قرارداد تا سقف ۲۰۰ میلیون دلار گره خورده است، این اختلاف، اخلاق را به زبان قرارداد تبدیل میکند. اینجاست که موانع یا پابرجا میمانند - یا بیسروصدا ناپدید میشوند.
قرارداد ۷۵۰ میلیون دلاری Perplexity با Azure چه چیزی را تغییر میدهد و چرا AWS را هم حفظ کنیم؟
طبق گزارشها، شرکت Perplexity یک قرارداد ابری چند ساله به ارزش ۷۵۰ میلیون دلار با محوریت Azure امضا کرده است و Foundry مایکروسافت به عنوان مرکز اصلی تامین و اجرای مدلها در آن قرار دارد. در عین حال، طبق گزارشها، این شرکت هنوز Amazon Web Services را به عنوان ارائهدهنده زیرساخت ترجیحی خود معرفی میکند که به جای تغییر کامل، به یک وضعیت چند ابری اشاره دارد. انگیزههای رایج شامل انعطافپذیری، اهرم مذاکره و انعطافپذیری ظرفیت است. اختلافات حقوقی پیشزمینهای با آمازون، زمینه بیشتری را به این رویکرد تقسیمشده اضافه میکند.
چرا سرمایهگذاران، غولهای فناوری را به خاطر سرمایهگذاری در هوش مصنوعی سرزنش میکنند، با اینکه هوش مصنوعی در اولویت است؟
موضوع شرح داده شده ساده است: سرمایهگذاران هزینههای هنگفت هوش مصنوعی را زمانی که رشد به وضوح و به سرعت خود را نشان دهد، تحمل میکنند، اما از جدول زمانی «به ما اعتماد کنید» خوششان نمیآید. در مثال ارائه شده، مایکروسافت زمانی که نتایج نگرانیها در مورد شتاب ابری را کاهش نداد، ضربه خورد، در حالی که متا با نشانههایی از افزایش عملکرد تبلیغات توسط هوش مصنوعی، رشد کرد. نکته اصلی این است که بازارها به دنبال شواهد هستند - افزایش درآمد، افزایش بهرهوری یا مسیری واضحتر برای سودآوری. صرف هزینه کردن به تنهایی داستان نیست؛ بازدههای اثبات شده داستان هستند.
در پرونده اسرار تجاری مهندس سابق گوگل چه اتفاقی افتاد و شرکتها باید از آن چه درسهایی بگیرند؟
مهندس گوگل، لینوی دینگ، در دادگاهی در ایالات متحده به جرم سرقت اسرار تجاری مرتبط با هوش مصنوعی محکوم شد و دادستانها گفتند که این اطلاعات برای منفعت دو شرکت چینی که او با آنها کار میکرد، در نظر گرفته شده بود. بنا به گزارشها، این اسناد مربوط به آموزش زیرساخت برای مدلهای بزرگ هوش مصنوعی - فناوری حیاتی و پشت صحنه - بود. این پرونده در چارچوب تلاش گستردهتر ایالات متحده برای مهار انتقال فناوریهای حساس قرار دارد. برای تیمها، این طرح کنترلهای دسترسی سختگیرانهتر، نظارت قویتر و اخراجهای منظم را تقویت میکند.