🪖 شرکت OpenAI جزئیات بیشتری از توافق خود با پنتاگون را فاش کرد ↗
OpenAI کمی به توافق خود با پنتاگون استحکام بیشتری بخشید - و هنوز هم بحث آشنای سرعت در برابر ایمنی را مطرح میکند. چارچوببندی خود این شرکت چنین است: این [تصمیم] به سرعت انجام شد، اپتیکها مبهم هستند، اما نردههای محافظ «واقعی» هستند. ( TechCrunch )
از طرف OpenAI، یک بیانیه عمومی نیز وجود دارد که «خطوط قرمز» را مشخص میکند، به علاوه اصرار دارد که استقرار فقط ابری است و پرسنل OpenAI برای اطمینان بیشتر درگیر هستند. حداقل این خلاصه ماجرا است - و واضح است که برای افرادی که از ابهام لذت میبرند طراحی نشده است. ( OpenAI )
🧨 توافق OpenAI و پنتاگون با همان نگرانیهای امنیتی مواجه است که مذاکرات آنتروپیک را مختل کرده بود ↗
اکسیوس اساساً میگوید: این یک جنجال تازه نیست، همان جنجال پوشیدن یک هودی متفاوت است. یکی از نکات مهم، خطر نظارت است - به خصوص آنچه که به عنوان دادههای «عمومی» محسوب میشود و آنچه که یک قرارداد واقعاً در عمل مسدود میکند. ( اکسیوس )
طبق گزارشها، شرکت آنتروپیک (Anthropic) خواستار محدودیتهای قراردادی سختگیرانهتری (بهویژه در مورد جمعآوری انبوه) شده است، در حالی که رویکرد OpenAI بیشتر به قوانین موجود و محدودیتهای محدودتر متکی است. اگر این عبارت شبیه «به سیستم اعتماد کنید» به نظر میرسد، این شرکت دلیل بیمیلی مردم را پیگیری میکند. ( Axios )
🎯 ارتش آمریکا علیرغم ممنوعیت ترامپ، از کلود در حملات به ایران استفاده کرده است ↗
این یکی به شدت مورد استقبال قرار گرفت - گزارشها حاکی از آن است که کلود در نقشهای پشتیبانی در اطراف یک حمله بزرگ مورد استفاده قرار گرفت، حتی در حالی که رهبری سیاسی علناً در مورد قطع روابط ژست میگرفت. این نوع عدم تطابق بین سیاست و عمل به طرز عجیبی قابل پیشبینی به نظر میرسد. ( گاردین )
عواقب گستردهتر این موضوع به یک بنبست زشت و بسیار عمومی بر سر اینکه «پشتیبانی از تصمیمگیری» کجا تمام میشود و استفاده نظامی غیرقابل قبول از آن کجا شروع میشود، تبدیل شده است. و وقتی این موارد وارد گردش کار میشوند، حذف آنها مانند حذف یک برنامه نیست - بیشتر شبیه تلاش برای از بین بردن یک کیک است. ( گاردین )
📡 انویدیا و رهبران جهانی مخابرات متعهد به ساخت 6G بر روی پلتفرمهای باز و امن مبتنی بر هوش مصنوعی شدند ↗
انویدیا، نسل ششم اینترنت همراه «بومی هوش مصنوعی» را به عنوان مبنای آینده معرفی میکند - نه یک افزونه، نه یک ویژگی، بلکه کل ماجرا. خلاصه کلام: شبکههای نسل بعدی طوری ساخته خواهند شد که از ابتدا بهینهسازی و اتوماسیون مبتنی بر هوش مصنوعی را اجرا کنند. ( investor.nvidia.com )
این بخشی از یک نقشه راه مهندسی واقعی و بخشی از یک حرکت قدرتمند اکوسیستمی است - زیرا اگر هوش مصنوعی به سیستم عامل شبکههای مخابراتی تبدیل شود، شرکتهایی که محاسبات و ابزارهای هوش مصنوعی را تأمین میکنند، به پول بسیار نزدیک میشوند. ( investor.nvidia.com )
🛰️ کوالکام سرویس مدیریت RAN Agentic و بهبودهای هوش مصنوعی را راهاندازی کرد ↗
کوالکام یک رویکرد مدیریت شبکه «عاملی» برای RAN ارائه داد - اساساً اتوماسیون را فراتر از داشبوردها به سیستمهایی منتقل میکند که میتوانند اقداماتی را انجام دهند (در چارچوب محدودیتها... یا حداقل اینطور به نظر میرسد). این رویکرد، اپراتورهای مخابراتی را هدف قرار داده است که از خلبانانی که هرگز وارد عملیات واقعی نمیشوند، خسته شدهاند. ( qualcomm.com )
معنای ضمنی این جمله این است: شبکهها برای انسانها بسیار پیچیدهتر از آن میشوند که بتوانند جزئیات را مدیریت کنند، بنابراین همه ما وانمود خواهیم کرد که با این موضوع که اجازه دهیم نرمافزارها بخش بیشتری از کشتی را هدایت کنند، مشکلی نداریم. من کاملاً راحت نیستم، اما درک میکنم. ( qualcomm.com )
سوالات متداول
توافق OpenAI با پنتاگون در عمل چه مواردی را مجاز میداند؟
از دیدگاه OpenAI، این توافقنامه به صورت کاملاً محدود و با «خطوط قرمز» و حفاظهای مشخص تنظیم شده است. این شرکت تأکید میکند که استفاده فقط در فضای ابری مجاز است و برای اطمینان بیشتر، پرسنل OpenAI را در جریان امور قرار میدهد. بحث کمتر در مورد وجود محدودیتها و بیشتر در مورد این است که آیا این محدودیتها در استفاده روزمره به اندازه کافی مؤثر هستند یا خیر.
چرا مردم نگران خطرات نظارتی در قرارداد OpenAI و پنتاگون هستند؟
نگرانی اصلی این است که چگونه دادههای «عمومی» تعریف میشوند و چه حمایتهایی واقعاً مانع از جمعآوری یا استفاده مجدد انبوه میشوند. منتقدان معتقدند که قراردادها میتوانند روی کاغذ سختگیرانه به نظر برسند، در حالی که در اجرا جای مانور باقی میگذارند. اکسیوس تأکید میکند که نگرانیهای مشابهی در مذاکرات قبلی با آنتروپیک، به ویژه در مورد جمعآوری در مقیاس بزرگ و استفاده در پاییندست، وجود داشته است.
«خطوط قرمز» OpenAI و چگونگی شکلگیری استقرارها توسط آنها
هدف از این گزارش عمومی، کاهش ابهام با تعیین مرزهایی پیرامون اینکه سیستم برای چه مواردی باید و نباید استفاده شود، است. در بسیاری از استقرارها، «خطوط قرمز» زمانی بهترین عملکرد را دارند که با کنترلهای قابل اجرا، حسابرسی و پاسخگویی شفاف در مورد تخلفات همراه باشند. این تردید از شکاف بین اصول بیان شده و پیچیدگی گردش کار دولت در طول زمان ناشی میشود.
چگونه «پشتیبانی از تصمیمگیری» با استفاده نظامی غیرقابل قبول از هوش مصنوعی متفاوت است؟
«پشتیبانی از تصمیمگیری» اغلب به معنای کمک به برنامهریزی، تجزیه و تحلیل یا وظایف گردش کار بدون تصمیمگیری نهایی است. بحث این است که مرز میتواند مبهم شود، به خصوص زمانی که سیستمها در عملیات تعبیه میشوند و گزینههای مورد بررسی را شکل میدهند. گزارش گاردین تأکید میکند که چگونه بیانیههای سیاست عمومی میتوانند از کاربرد عملیاتی روزمره، زمانی که ابزارها در خط تولید قرار میگیرند، فاصله بگیرند.
«6G بومی هوش مصنوعی» به چه معناست و چرا برای مخابرات اهمیت دارد؟
انویدیا میگوید شبکههای آینده هوش مصنوعی را فقط به عنوان یک افزونه اجرا نخواهند کرد؛ بلکه آنها با بهینهسازی و اتوماسیون مبتنی بر هوش مصنوعی به عنوان هسته اصلی طراحی خواهند شد. این موضوع اهمیت دارد زیرا جایی که ارزش انباشته میشود تغییر میکند - به سمت پلتفرمهایی که محاسبات، هماهنگی و ابزار را ارائه میدهند. همچنین وقتی رفتار شبکه به طور فزایندهای توسط نرمافزار هدایت میشود، سوالات عملیاتی و امنیتی ایجاد میشود.
مدیریت RAN «عاملی» چیست و بدهبستانهای مربوطه
زاویه «عاملی» کوالکام، عملیات شبکه را به عنوان حرکت از داشبوردها به سمت سیستمهایی که میتوانند در محدودیتهای تعریفشده اقدام کنند، ترسیم میکند. وعده این است که با پیچیدهتر شدن شبکهها برای مدیریت خرد، تعداد خلبانهای متوقفشده کمتر و اتوماسیون بیشتر در عملیات افزایش یابد. در این میان، اعتماد مطرح است: خودمختاری بیشتر میتواند کارایی را بهبود بخشد، اما همچنین نیاز به کنترلهای دقیق، نظارت و حالتهای جایگزین ایمن را تقویت میکند.