اخبار هوش مصنوعی، ۹ مارس ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۹ مارس ۲۰۲۶

⚖️ شرکت آنتروپیک برای جلوگیری از قرار گرفتن در فهرست سیاه پنتاگون به دلیل محدودیت‌های استفاده از هوش مصنوعی، شکایت کرد

شرکت آنتروپیک پس از آنکه پنتاگون آن را به عنوان یک عامل خطر برای زنجیره تأمین معرفی کرد، دعوای خود با پنتاگون را به دادگاه کشاند. این شرکت می‌گوید این اقدام، تلافی غیرقانونی امتناع پنتاگون از کاهش موانع پیرامون سلاح‌های خودمختار و نظارت داخلی بوده است - که این اختلاف را در میان حساس‌ترین نقاط اشتعال در سیاست هوش مصنوعی در حال حاضر قرار می‌دهد. ( رویترز )

دولت خواهان انعطاف‌پذیری برای «هرگونه استفاده قانونی» است، در حالی که شرکت آنتروپیک استدلال می‌کند که آزمایشگاه‌های خصوصی همچنان باید مجاز به تعیین خطوط ایمنی سختگیرانه باشند. این موضوع به یکی از واضح‌ترین آزمون‌ها تاکنون تبدیل شده است که آیا یک شرکت هوش مصنوعی می‌تواند بدون اینکه به خاطر آن کنار گذاشته شود، به شرایط نظامی «نه» بگوید یا خیر. ( رویترز )

🧑💻 کارمندان OpenAI و گوگل از شکایت Antropic علیه پنتاگون حمایت می‌کنند

این دعوی حقوقی به سرعت حمایت آزمایشگاه‌های رقیب را نیز به خود جلب کرد. نزدیک به ۴۰ کارمند از OpenAI و گوگل در یک جلسه توجیهی از Anthropic حمایت کردند و استدلال کردند که تلافی‌جویی علیه شرکت‌ها به دلیل خطوط قرمز ایمنی هوش مصنوعی، خلاف منافع عمومی است. ( The Verge )

بنابراین بله، رقبا ناگهان خود را در یک جبهه یافته‌اند - حداقل در این مورد. این گزارش بر نظارت گسترده و سلاح‌های خودمختار غیرقابل اعتماد تمرکز دارد، که باعث می‌شود کل ماجرا کمتر شبیه تیراندازی‌های استاندارد سیلیکون ولی و بیشتر شبیه یک خط مشی صنعتی واقعی در شن و ماسه... یا شاید گل و لای باشد. ( The Verge )

🛡️ OpenAI برای ایمن‌سازی عامل‌های هوش مصنوعی خود، Promptfoo را تصاحب کرد

OpenAI اعلام کرد که در حال خرید Promptfoo، استارتاپی متمرکز بر محافظت از مدل‌های زبانی بزرگ در برابر حملات خصمانه، است. برنامه این است که فناوری خود را در OpenAI Frontier، پلتفرم سازمانی این شرکت برای عوامل هوش مصنوعی، ادغام کند. ( TechCrunch )

این یک حرکت قابل توجه است. همه می‌خواهند هوش مصنوعی عامل‌محور، بیشتر، سریع‌تر و در همه جا کار کند - اما بخش امنیتی، چه کمی و چه خیلی زیاد، عقب مانده است. این معامله نشان می‌دهد که OpenAI فکر می‌کند مسابقه بزرگ بعدی فقط برای عامل‌های هوشمندتر نیست، بلکه برای عامل‌های ایمن‌تر نیز هست. ( TechCrunch )

🧪 شرکت آنتروپیک (Anthropic) ابزار بررسی کد را برای بررسی سیل کدهای تولید شده توسط هوش مصنوعی راه‌اندازی کرد

آنتروپیک، Code Review را درون Claude Code ارائه داد که تیم‌هایی را هدف قرار می‌دهد که در درخواست‌های pull ایجاد شده توسط ابزارهای کدنویسی هوش مصنوعی غرق شده‌اند. این ابزار از چندین عامل به طور موازی برای اسکن کد، علامت‌گذاری مشکلات منطقی، رتبه‌بندی شدت و ارسال نظرات به طور مستقیم در GitHub استفاده می‌کند. ( TechCrunch )

طرح اولیه به اندازه کافی ساده است - هوش مصنوعی کد را سریع‌تر از آنچه انسان‌ها بتوانند به طور معقول آن را بررسی کنند، تولید می‌کند، بنابراین اکنون هوش مصنوعی باید هوش مصنوعی را بررسی کند. این یک طرح کمی شبیه به مار خوردن دم خود است، اما عملی است. آنتروپیک می‌گوید که این طرح برای کاربران سازمانی که در حال حاضر خروجی کد عظیمی از Claude Code را مشاهده می‌کنند، طراحی شده است. ( TechCrunch )

💰 ارزش Nscale با پشتیبانی انویدیا در دور جدید تامین مالی به ۱۴.۶ میلیارد دلار رسید

شرکت زیرساخت هوش مصنوعی بریتانیا، Nscale، در دور سوم جذب سرمایه، ۲ میلیارد دلار جذب کرد و به ارزش ۱۴.۶ میلیارد دلار رسید. حامیان مالی این شرکت شامل Aker، 8090 Industries، Nvidia، Citadel، Dell و Jane Street بودند که این رقم، رأی اعتماد نسبتاً سنگینی محسوب می‌شود. ( رویترز )

این مورد مهم است زیرا یک مدل جدید یا یک تغییر در چت‌بات نیست. این بخشِ بیل و کلنگِ رونق است - محاسبات، زیرساخت‌ها، ظرفیت، تمام ماشین‌آلات سنگین پشت پرده. شاید فریبنده نباشد، اما بخش بزرگی از پول اکنون در آنجا جریان دارد. ( رویترز )

🧠 آزمایشگاه‌های AMI متعلق به یان لکون، ۱.۰۳ میلیارد دلار برای ساخت مدل‌های جهانی جمع‌آوری کردند

شرکت جدید یان لکان، AMI Labs، با ارزش‌گذاری ۳.۵ میلیارد دلاری پیش از جذب سرمایه، ۱.۰۳ میلیارد دلار جذب سرمایه کرد. این شرکت به دنبال «مدل‌های جهانی» است - سیستم‌های هوش مصنوعی که قرار است از خود واقعیت یاد بگیرند، نه اینکه عمدتاً از زبان بیاموزند. ( تک‌کرانچ )

این یک چرخش فلسفی مستقیم به اجماع فعلیِ مبتنی بر LLM است، و همچنین یک چرخش به طرز قابل توجهی رک و صریح. لکان سال‌هاست استدلال می‌کند که مدل‌های زبانی امروزی ما را به سطح هوش انسانی نمی‌رسانند، بنابراین این افزایش [هزینه] آن استدلال را به یک آزمایش بسیار پرهزینه تبدیل می‌کند. ( تک‌کرانچ )

🇨🇳 مراکز فناوری چینی علیرغم هشدارهای امنیتی، عامل هوش مصنوعی OpenClaw را تبلیغ می‌کنند

چندین دولت محلی چین از OpenClaw، یک عامل هوش مصنوعی که علیرغم نگرانی‌های امنیتی مرتبط با دسترسی آن به داده‌های شخصی، به سرعت در حال گسترش است، حمایت می‌کنند. بنابراین به نظر می‌رسد که نظر رسمی این است: بله، خطراتی وجود دارد - و بله، بیایید به هر حال آن را گسترش دهیم. ( رویترز )

داستان از همین شکاف شروع می‌شود. مراکز محلی خواهان رونق اقتصادی و شتاب اکوسیستم هستند، در حالی که نهادهای نظارتی در مورد افشای داده‌ها هشدار می‌دهند. اکنون این یک الگوی آشنا در حوزه هوش مصنوعی است - اول با سرعت بدوید، بعداً نرده‌های محافظ را مرتب کنید، یا حداقل اینطور به نظر می‌رسد. ( رویترز )

سوالات متداول

چرا شرکت آنتروپیک به دلیل محدودیت‌های استفاده از هوش مصنوعی از پنتاگون شکایت می‌کند؟

شرکت آنتروپیک می‌گوید پنتاگون پس از آنکه این شرکت از پذیرش شرایط گسترده‌تری که می‌تواند شامل سلاح‌های خودمختار و نظارت داخلی شود، خودداری کرد، آن را یک خطر برای زنجیره تأمین نامید. این موضوع، دعوی حقوقی را به چیزی فراتر از وضعیت فروشنده تبدیل می‌کند. این شرکت در حال آزمایش این موضوع است که آیا یک آزمایشگاه هوش مصنوعی می‌تواند محدودیت‌های ایمنی محکمی را حفظ کند و همچنان بدون جریمه شدن، برای کارهای دولتی رقابت کند یا خیر.

چرا کارمندان OpenAI و گوگل در این اختلاف نظر در مورد ایمنی هوش مصنوعی، از شرکت Antropic حمایت می‌کنند؟

این گزارش نشان می‌دهد که بسیاری از افراد در آزمایشگاه‌های رقیب، این موضوع را به عنوان یک مسئله‌ی ایمنی هوش مصنوعیِ سابقه‌دار می‌بینند، نه صرفاً نزاعی بین یک شرکت و یک آژانس. نگرانی آنها این است که مجازات یک فروشنده به دلیل حفظ خطوط قرمز، می‌تواند بازار گسترده‌تر را برای تضعیف پادمان‌ها تحت فشار قرار دهد. در عمل، این می‌تواند نحوه‌ی مذاکره‌ی قراردادهای هوش مصنوعی دفاعی و بخش دولتی در آینده را شکل دهد.

پرونده آنتروپیک-پنتاگون چه چیزی را می‌تواند برای سیاست‌های هوش مصنوعی و قراردادهای دفاعی تغییر دهد؟

اگر شرکت آنتروپیک برنده شود، شرکت‌های هوش مصنوعی ممکن است جایگاه قوی‌تری برای تعریف کاربردهای غیرقابل قبول، حتی هنگام فروش به محیط‌های حساس دولتی، داشته باشند. اگر ببازد، سازمان‌ها می‌توانند اهرم فشاری برای مطالبه شرایط «استفاده قانونی» گسترده‌تر از تأمین‌کنندگان به دست آورند. در هر صورت، این اختلاف احتمالاً بر زبان تدارکات، بررسی ریسک‌ها و نحوه نگارش حفاظ‌های ایمنی در معاملات دفاعی تأثیر خواهد گذاشت.

چرا OpenAI شرکت Promptfoo را برای عوامل هوش مصنوعی خریداری کرد؟

Promptfoo به خاطر آزمایش مدل‌های زبانی بزرگ در برابر اعلان‌های خصمانه و سایر نقاط ضعف امنیتی شناخته شده است. گنجاندن این نوع ابزار در پلتفرم عامل سازمانی OpenAI نشان می‌دهد که این شرکت، استقرار ایمن‌تر را به عنوان یک مزیت رقابتی و نه یک کار جانبی می‌بیند. با افزایش حجم کار عامل‌های هوش مصنوعی، نادیده گرفتن آزمایش‌های تاب‌آوری و سوءاستفاده بسیار دشوارتر می‌شود.

تیم‌ها چگونه می‌توانند سیل کدهای تولید شده توسط هوش مصنوعی را با خیال راحت‌تری مدیریت کنند؟

ویژگی جدید بررسی کد (Code Review) شرکت آنتروپیک (Anthropic) در داخل Claude Code، تیم‌هایی را هدف قرار داده است که با درخواست‌های pull تولید شده توسط ابزارهای کدنویسی هوش مصنوعی، دست و پنجه نرم می‌کنند. این ویژگی از چندین عامل به طور موازی برای شناسایی مشکلات منطقی، رتبه‌بندی شدت و ارسال نظر در GitHub استفاده می‌کند. معمولاً ابزارهایی مانند این به اولویت‌بندی حجم کمک می‌کنند، اما بررسی‌کنندگان انسانی هنوز برای معماری، زمینه و تأیید نهایی اهمیت دارند.

چرا زیرساخت‌های هوش مصنوعی در حال حاضر اینقدر سرمایه‌گذاری می‌کنند؟

آخرین دور تأمین مالی Nscale نشان می‌دهد که صنعت هوش مصنوعی هنوز سرمایه عظیمی را به حوزه محاسبات، زیرساخت‌ها و ظرفیت اختصاص می‌دهد. این هزینه‌ها ممکن است کمتر از یک رونمایی پر زرق و برق از یک مدل به چشم بیاید، اما زیربنای هر چیز دیگری است. وقتی تقاضا برای آموزش و استقرار همچنان افزایش می‌یابد، شرکت‌هایی که بیل و کلنگ می‌فروشند، اغلب به بزرگترین برندگان تبدیل می‌شوند.

مدل‌های جهانی چه کسانی هستند و چرا یان لکان روی آنها شرط می‌بندد؟

مدل‌های جهانی، سیستم‌های هوش مصنوعی هستند که برای یادگیری از نحوه رفتار جهان طراحی شده‌اند، نه اینکه اساساً به داده‌های زبانی متکی باشند. این موضوع اهمیت دارد زیرا یان لکان مدت‌هاست استدلال می‌کند که مدل‌های زبانی به خودی خود بعید است به هوش در سطح انسان برسند. آزمایشگاه‌های AMI این دیدگاه را به یک شرط‌بندی تجاری بزرگ در مسیری متفاوت برای تحقیقات پیشرفته هوش مصنوعی تبدیل می‌کنند.

چرا مراکز فناوری چینی با وجود هشدارهای امنیتی از OpenClaw حمایت می‌کنند؟

داستان OpenClaw شکاف آشنایی را در بازارهای فناوریِ به‌سرعت در حال رشد نشان می‌دهد: دولت‌های محلی خواهان رشد، یارانه و شتاب اکوسیستم هستند، در حالی که تنظیم‌کنندگان نگران افشای داده‌ها و امنیت هستند. حمایت از نماینده علیرغم هشدارها نشان می‌دهد که انگیزه‌های اقتصادی در برخی مکان‌ها غالب است. برای ناظران، این یادآوری دیگری است که پذیرش اغلب سریع‌تر از نظارت پیش می‌رود.

اخبار هوش مصنوعی دیروز: ۸ مارس ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ