اخبار هوش مصنوعی، ۷ مارس ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۷ مارس ۲۰۲۶

🤖 مدیر بخش سخت‌افزار OpenAI پس از توافق با پنتاگون استعفا داد

کیتلین کالینوفسکی، سرپرست بخش سخت‌افزار و رباتیک OpenAI، پس از قرارداد این شرکت با پنتاگون، از سمت خود کناره‌گیری کرد و گفت که این اقدام قبل از تأیید مدل‌ها برای شبکه‌های دفاعی طبقه‌بندی‌شده، به اندازه کافی مورد بررسی داخلی قرار نگرفته است. نگرانی اصلی او کاملاً مستقیم بود - نظارت انسانی، مرزهای نظارتی و خطر پیشرفت سریع خودمختاری کشنده. ( رویترز )

OpenAI می‌گوید این توافق شامل تدابیر حفاظتی بیشتری است و همچنان نظارت داخلی و استفاده از سلاح‌های خودکار را ممنوع می‌کند. با این حال، این استعفا باعث می‌شود که کل ماجرا کمتر به عنوان یک به‌روزرسانی روان سیاست و بیشتر شبیه یک درِ آتش‌نشانی باشد که در وسط یک جلسه بسته می‌شود. ( رویترز )

🏗️ بلومبرگ نیوز گزارش داد، اوراکل و OpenAI طرح توسعه مرکز داده تگزاس را لغو کردند

طبق گزارش‌ها، اوراکل و OpenAI پس از طولانی شدن مذاکرات مالی و تغییر نیازهای محاسباتی OpenAI، برنامه‌های خود برای گسترش مرکز داده بزرگ هوش مصنوعی خود در ابیلین، تگزاس را لغو کرده‌اند. این سایت بخشی از تلاش گسترده‌تر برای ایجاد زیرساخت‌های Stargate بود، بنابراین این موضوع به هیچ وجه جزئی نیست. ( رویترز )

محوطه موجود همچنان در حال فعالیت است و شرکت‌ها می‌گویند که ساخت‌وساز چند گیگاواتی گسترده‌تر در جاهای دیگر ادامه دارد. در عین حال، طرح توسعه رها شده اکنون ممکن است مسیری را برای متا باز کند، که طبق گزارش‌ها در مورد اجاره این سایت به جای آن بحث کرده است. زیرساخت‌های هوش مصنوعی مانند سیمان خیس در حال حرکت هستند - سنگین، گران و هرگز کاملاً تثبیت نشده. ( رویترز )

⚖️ پنتاگون، آنتروپیک را یک ریسک زنجیره تأمین معرفی کرد

پنتاگون رسماً شرکت آنتروپیک را یک خطر برای زنجیره تأمین نامید و پس از آنکه این شرکت از کاهش تدابیر حفاظتی علیه سلاح‌های خودمختار و نظارت گسترده خودداری کرد، استفاده از شرکت کلود را در قراردادهای وزارت دفاع محدود کرد. این موضوع، هسته اصلی ماجرا است - یک مبارزه تدارکاتی که به یک مبارزه ارزشی بسیار بزرگتر تبدیل شد. ( رویترز )

شرکت آنتروپیک می‌گوید این اقدام از نظر قانونی صحیح نیست و قصد دارد آن را در دادگاه به چالش بکشد. این نامگذاری برای یک آزمایشگاه هوش مصنوعی آمریکایی به طور غیرمعمول سختگیرانه است و در بحبوحه اختلاف نظر گسترده‌تری بر سر این موضوع قرار می‌گیرد که آیا شرکت‌های مدل مرزی باید قوانین سختگیرانه‌تری را در قراردادهای دفاعی بنویسند یا به قوانین موجود برای انجام کار اعتماد کنند... که همه آماده انجام آن نیستند. ( رویترز )

💬 متا به رقبای هوش مصنوعی در واتس‌اپ اجازه می‌دهد تا در مقابل اقدام اتحادیه اروپا مقاومت کنند

متا می‌گوید پس از فشار نهادهای نظارتی ضد انحصار اتحادیه اروپا، به مدت یک سال به چت‌بات‌های هوش مصنوعی رقیب اجازه می‌دهد تا با استفاده از رابط برنامه‌نویسی کاربردی (API) تجاری، در واتس‌اپ اروپا حضور داشته باشند. رقبا شکایت داشتند که متا عملاً آنها را مسدود کرده و در عین حال دستیار خودش را ترجیح می‌دهد - نکته‌ای قابل توجه، با توجه به اینکه توزیع در هوش مصنوعی تا چه حد مرکزی شده است. ( رویترز )

نکته این است که این دسترسی با هزینه همراه است و منتقدان معتقدند که این امر همچنان رقبای کوچک‌تر را در موقعیت نامساعدی قرار می‌دهد. نهادهای نظارتی در حال تصمیم‌گیری در مورد کافی بودن این امتیاز هستند، بنابراین این توافق کمتر شبیه یک معاهده صلح و بیشتر شبیه یک دکمه توقف است که در کاغذبازی پیچیده شده است. ( رویترز )

📜 شرکت xAI در تلاش برای متوقف کردن قانون افشای اطلاعات هوش مصنوعی کالیفرنیا شکست خورد

تلاش xAI برای جلوگیری از قانونی در کالیفرنیا که شرکت‌های هوش مصنوعی را ملزم به افشای اطلاعات بیشتر در مورد داده‌های مورد استفاده برای آموزش مدل‌هایشان می‌کند، شکست خورد. امتناع دادگاه از توقف این قانون به این معنی است که xAI اکنون با همان فشار شفافیتی روبرو است که سایر سازندگان مدل، گاهی اوقات به طرز ناشیانه‌ای، سعی در فرار از آن داشته‌اند. ( رویترز )

این موضوع اهمیت دارد زیرا اختلافات مربوط به داده‌های آموزشی دیگر فقط آکادمیک یا مربوط به کپی‌رایت نیستند - بلکه به یک مسئله‌ی انطباق زنده تبدیل می‌شوند. برای xAI که در حال حاضر با جنجال‌های ایمنی مکرر پیرامون Grok دست و پنجه نرم می‌کند، این موضوع بار دیگری را به دوش نهادهای نظارتی می‌اندازد. ( رویترز )

سوالات متداول

چرا مدیر بخش سخت‌افزار و رباتیک OpenAI پس از توافق با پنتاگون استعفا داد؟

کیتلین کالینوفسکی به دلیل اینکه معتقد بود تصمیم برای پاکسازی مدل‌ها برای شبکه‌های دفاعی طبقه‌بندی‌شده، به اندازه کافی مورد بررسی داخلی قرار نگرفته است، از سمت خود کناره‌گیری کرد. نگرانی‌های او بر نظارت انسانی، محدودیت‌های نظارت و خطر پیشرفت سریع خودمختاری کشنده متمرکز بود. OpenAI گفت که این توافق هنوز نظارت داخلی و استفاده از سلاح‌های خودمختار را ممنوع می‌کند، اما این استعفا نشان می‌دهد که بحث داخلی به طور کامل حل نشده است.

اینکه پنتاگون، آنتروپیک را یک ریسک زنجیره تأمین می‌نامد، واقعاً به چه معناست؟

این بدان معناست که استفاده از کلود در قراردادهای وزارت دفاع محدود خواهد شد، که یک مانع بزرگ در تدارکات است. طبق این مقاله، اختلاف بر سر امتناع آنتروپیک از تضعیف پادمان‌های مربوط به سلاح‌های خودمختار و نظارت گسترده است. آنتروپیک می‌گوید که این نامگذاری از نظر قانونی صحیح نیست و قصد دارد آن را به چالش بکشد، بنابراین این می‌تواند هم به یک دعوای دادگاهی و هم به یک آزمون سیاسی تبدیل شود.

چرا لغو طرح توسعه مرکز داده تگزاس در اخبار صنعت هوش مصنوعی اهمیت دارد؟

توسعه‌ی رها شده‌ی Abilene اهمیت دارد زیرا بخشی از تلاش گسترده‌تر برای زیرساخت‌های Stargate بود و آن را به برنامه‌ریزی بلندمدت محاسبات هوش مصنوعی گره می‌زند. رویترز گزارش می‌دهد که پردیس موجود هنوز فعال است، اما تأخیر در تأمین مالی و تغییر نیازهای محاسباتی باعث شد Oracle و OpenAI از این توسعه صرف نظر کنند. این همچنین نشان می‌دهد که شرط‌بندی‌های اصلی در مورد زیرساخت‌های هوش مصنوعی چقدر سریع می‌توانند تغییر کنند، حتی زمانی که ساخت و ساز گسترده‌تر در جای دیگری ادامه یابد.

چرا متا به چت‌بات‌های هوش مصنوعی رقیب اجازه می‌دهد در اروپا به واتس‌اپ راه پیدا کنند؟

متا پس از فشار از سوی نهادهای نظارتی ضد انحصار اتحادیه اروپا و شکایاتی مبنی بر اینکه از دستیار خود در حالی که رقبا را محدود می‌کند، حمایت می‌کند، این اقدام را انجام داد. این دسترسی موقت است و از طریق API تجاری اجرا می‌شود، بنابراین به معنای یک سیاست کاملاً باز نیست. هزینه‌ها همچنان اعمال می‌شوند، به این معنی که رقبای کوچکتر ممکن است حتی پس از اعطای امتیاز، همچنان با معایب عملی مواجه شوند.

قانون افشای داده‌های آموزشی هوش مصنوعی کالیفرنیا برای xAI چه معنایی دارد؟

امتناع دادگاه از لغو این قانون به این معنی است که xAI اکنون باید با الزامات شفافیت بیشتری در مورد داده‌های آموزشی دست و پنجه نرم کند. این موضوع اهمیت دارد زیرا توسعه‌دهندگان مدل اغلب سعی کرده‌اند از افشای جزئیات، به ویژه هنگامی که منبع داده‌ها حساس یا مورد مناقشه است، خودداری کنند. در عمل، داده‌های آموزشی به جای اینکه بحثی در مورد هنجارهای تحقیقاتی یا ریسک حق چاپ باقی بمانند، به یک مسئله فعال در مورد انطباق تبدیل می‌شوند.

مهم‌ترین نکته‌ی اخبار صنعت هوش مصنوعی این هفته چیست؟

نکته مشترک این است که هوش مصنوعی کمتر توسط عرضه محصولات به تنهایی و بیشتر توسط حاکمیت، زیرساخت و مقررات شکل می‌گیرد. مشارکت‌های دفاعی باعث ایجاد تضاد داخلی می‌شوند، گسترش محاسبات پرهزینه و سیال است و تنظیم‌کنندگان مقررات فشار بیشتری بر دسترسی و افشا وارد می‌کنند. در سراسر OpenAI، Anthropic، Meta و xAI، این مقاله به صنعتی اشاره می‌کند که مجبور است بده‌بستان‌های خود را بیشتر نمایان کند.

اخبار هوش مصنوعی دیروز: ۶ مارس ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ