🤖 مدیر بخش سختافزار OpenAI پس از توافق با پنتاگون استعفا داد ↗
کیتلین کالینوفسکی، سرپرست بخش سختافزار و رباتیک OpenAI، پس از قرارداد این شرکت با پنتاگون، از سمت خود کنارهگیری کرد و گفت که این اقدام قبل از تأیید مدلها برای شبکههای دفاعی طبقهبندیشده، به اندازه کافی مورد بررسی داخلی قرار نگرفته است. نگرانی اصلی او کاملاً مستقیم بود - نظارت انسانی، مرزهای نظارتی و خطر پیشرفت سریع خودمختاری کشنده. ( رویترز )
OpenAI میگوید این توافق شامل تدابیر حفاظتی بیشتری است و همچنان نظارت داخلی و استفاده از سلاحهای خودکار را ممنوع میکند. با این حال، این استعفا باعث میشود که کل ماجرا کمتر به عنوان یک بهروزرسانی روان سیاست و بیشتر شبیه یک درِ آتشنشانی باشد که در وسط یک جلسه بسته میشود. ( رویترز )
🏗️ بلومبرگ نیوز گزارش داد، اوراکل و OpenAI طرح توسعه مرکز داده تگزاس را لغو کردند ↗
طبق گزارشها، اوراکل و OpenAI پس از طولانی شدن مذاکرات مالی و تغییر نیازهای محاسباتی OpenAI، برنامههای خود برای گسترش مرکز داده بزرگ هوش مصنوعی خود در ابیلین، تگزاس را لغو کردهاند. این سایت بخشی از تلاش گستردهتر برای ایجاد زیرساختهای Stargate بود، بنابراین این موضوع به هیچ وجه جزئی نیست. ( رویترز )
محوطه موجود همچنان در حال فعالیت است و شرکتها میگویند که ساختوساز چند گیگاواتی گستردهتر در جاهای دیگر ادامه دارد. در عین حال، طرح توسعه رها شده اکنون ممکن است مسیری را برای متا باز کند، که طبق گزارشها در مورد اجاره این سایت به جای آن بحث کرده است. زیرساختهای هوش مصنوعی مانند سیمان خیس در حال حرکت هستند - سنگین، گران و هرگز کاملاً تثبیت نشده. ( رویترز )
⚖️ پنتاگون، آنتروپیک را یک ریسک زنجیره تأمین معرفی کرد ↗
پنتاگون رسماً شرکت آنتروپیک را یک خطر برای زنجیره تأمین نامید و پس از آنکه این شرکت از کاهش تدابیر حفاظتی علیه سلاحهای خودمختار و نظارت گسترده خودداری کرد، استفاده از شرکت کلود را در قراردادهای وزارت دفاع محدود کرد. این موضوع، هسته اصلی ماجرا است - یک مبارزه تدارکاتی که به یک مبارزه ارزشی بسیار بزرگتر تبدیل شد. ( رویترز )
شرکت آنتروپیک میگوید این اقدام از نظر قانونی صحیح نیست و قصد دارد آن را در دادگاه به چالش بکشد. این نامگذاری برای یک آزمایشگاه هوش مصنوعی آمریکایی به طور غیرمعمول سختگیرانه است و در بحبوحه اختلاف نظر گستردهتری بر سر این موضوع قرار میگیرد که آیا شرکتهای مدل مرزی باید قوانین سختگیرانهتری را در قراردادهای دفاعی بنویسند یا به قوانین موجود برای انجام کار اعتماد کنند... که همه آماده انجام آن نیستند. ( رویترز )
💬 متا به رقبای هوش مصنوعی در واتساپ اجازه میدهد تا در مقابل اقدام اتحادیه اروپا مقاومت کنند ↗
متا میگوید پس از فشار نهادهای نظارتی ضد انحصار اتحادیه اروپا، به مدت یک سال به چتباتهای هوش مصنوعی رقیب اجازه میدهد تا با استفاده از رابط برنامهنویسی کاربردی (API) تجاری، در واتساپ اروپا حضور داشته باشند. رقبا شکایت داشتند که متا عملاً آنها را مسدود کرده و در عین حال دستیار خودش را ترجیح میدهد - نکتهای قابل توجه، با توجه به اینکه توزیع در هوش مصنوعی تا چه حد مرکزی شده است. ( رویترز )
نکته این است که این دسترسی با هزینه همراه است و منتقدان معتقدند که این امر همچنان رقبای کوچکتر را در موقعیت نامساعدی قرار میدهد. نهادهای نظارتی در حال تصمیمگیری در مورد کافی بودن این امتیاز هستند، بنابراین این توافق کمتر شبیه یک معاهده صلح و بیشتر شبیه یک دکمه توقف است که در کاغذبازی پیچیده شده است. ( رویترز )
📜 شرکت xAI در تلاش برای متوقف کردن قانون افشای اطلاعات هوش مصنوعی کالیفرنیا شکست خورد ↗
تلاش xAI برای جلوگیری از قانونی در کالیفرنیا که شرکتهای هوش مصنوعی را ملزم به افشای اطلاعات بیشتر در مورد دادههای مورد استفاده برای آموزش مدلهایشان میکند، شکست خورد. امتناع دادگاه از توقف این قانون به این معنی است که xAI اکنون با همان فشار شفافیتی روبرو است که سایر سازندگان مدل، گاهی اوقات به طرز ناشیانهای، سعی در فرار از آن داشتهاند. ( رویترز )
این موضوع اهمیت دارد زیرا اختلافات مربوط به دادههای آموزشی دیگر فقط آکادمیک یا مربوط به کپیرایت نیستند - بلکه به یک مسئلهی انطباق زنده تبدیل میشوند. برای xAI که در حال حاضر با جنجالهای ایمنی مکرر پیرامون Grok دست و پنجه نرم میکند، این موضوع بار دیگری را به دوش نهادهای نظارتی میاندازد. ( رویترز )
سوالات متداول
چرا مدیر بخش سختافزار و رباتیک OpenAI پس از توافق با پنتاگون استعفا داد؟
کیتلین کالینوفسکی به دلیل اینکه معتقد بود تصمیم برای پاکسازی مدلها برای شبکههای دفاعی طبقهبندیشده، به اندازه کافی مورد بررسی داخلی قرار نگرفته است، از سمت خود کنارهگیری کرد. نگرانیهای او بر نظارت انسانی، محدودیتهای نظارت و خطر پیشرفت سریع خودمختاری کشنده متمرکز بود. OpenAI گفت که این توافق هنوز نظارت داخلی و استفاده از سلاحهای خودمختار را ممنوع میکند، اما این استعفا نشان میدهد که بحث داخلی به طور کامل حل نشده است.
اینکه پنتاگون، آنتروپیک را یک ریسک زنجیره تأمین مینامد، واقعاً به چه معناست؟
این بدان معناست که استفاده از کلود در قراردادهای وزارت دفاع محدود خواهد شد، که یک مانع بزرگ در تدارکات است. طبق این مقاله، اختلاف بر سر امتناع آنتروپیک از تضعیف پادمانهای مربوط به سلاحهای خودمختار و نظارت گسترده است. آنتروپیک میگوید که این نامگذاری از نظر قانونی صحیح نیست و قصد دارد آن را به چالش بکشد، بنابراین این میتواند هم به یک دعوای دادگاهی و هم به یک آزمون سیاسی تبدیل شود.
چرا لغو طرح توسعه مرکز داده تگزاس در اخبار صنعت هوش مصنوعی اهمیت دارد؟
توسعهی رها شدهی Abilene اهمیت دارد زیرا بخشی از تلاش گستردهتر برای زیرساختهای Stargate بود و آن را به برنامهریزی بلندمدت محاسبات هوش مصنوعی گره میزند. رویترز گزارش میدهد که پردیس موجود هنوز فعال است، اما تأخیر در تأمین مالی و تغییر نیازهای محاسباتی باعث شد Oracle و OpenAI از این توسعه صرف نظر کنند. این همچنین نشان میدهد که شرطبندیهای اصلی در مورد زیرساختهای هوش مصنوعی چقدر سریع میتوانند تغییر کنند، حتی زمانی که ساخت و ساز گستردهتر در جای دیگری ادامه یابد.
چرا متا به چتباتهای هوش مصنوعی رقیب اجازه میدهد در اروپا به واتساپ راه پیدا کنند؟
متا پس از فشار از سوی نهادهای نظارتی ضد انحصار اتحادیه اروپا و شکایاتی مبنی بر اینکه از دستیار خود در حالی که رقبا را محدود میکند، حمایت میکند، این اقدام را انجام داد. این دسترسی موقت است و از طریق API تجاری اجرا میشود، بنابراین به معنای یک سیاست کاملاً باز نیست. هزینهها همچنان اعمال میشوند، به این معنی که رقبای کوچکتر ممکن است حتی پس از اعطای امتیاز، همچنان با معایب عملی مواجه شوند.
قانون افشای دادههای آموزشی هوش مصنوعی کالیفرنیا برای xAI چه معنایی دارد؟
امتناع دادگاه از لغو این قانون به این معنی است که xAI اکنون باید با الزامات شفافیت بیشتری در مورد دادههای آموزشی دست و پنجه نرم کند. این موضوع اهمیت دارد زیرا توسعهدهندگان مدل اغلب سعی کردهاند از افشای جزئیات، به ویژه هنگامی که منبع دادهها حساس یا مورد مناقشه است، خودداری کنند. در عمل، دادههای آموزشی به جای اینکه بحثی در مورد هنجارهای تحقیقاتی یا ریسک حق چاپ باقی بمانند، به یک مسئله فعال در مورد انطباق تبدیل میشوند.
مهمترین نکتهی اخبار صنعت هوش مصنوعی این هفته چیست؟
نکته مشترک این است که هوش مصنوعی کمتر توسط عرضه محصولات به تنهایی و بیشتر توسط حاکمیت، زیرساخت و مقررات شکل میگیرد. مشارکتهای دفاعی باعث ایجاد تضاد داخلی میشوند، گسترش محاسبات پرهزینه و سیال است و تنظیمکنندگان مقررات فشار بیشتری بر دسترسی و افشا وارد میکنند. در سراسر OpenAI، Anthropic، Meta و xAI، این مقاله به صنعتی اشاره میکند که مجبور است بدهبستانهای خود را بیشتر نمایان کند.