⚖️ شرکت آنتروپیک برای جلوگیری از قرار گرفتن در فهرست سیاه پنتاگون به دلیل محدودیتهای استفاده از هوش مصنوعی، شکایت کرد ↗
شرکت آنتروپیک پس از آنکه پنتاگون آن را به عنوان یک عامل خطر برای زنجیره تأمین معرفی کرد، دعوای خود با پنتاگون را به دادگاه کشاند. این شرکت میگوید این اقدام، تلافی غیرقانونی امتناع پنتاگون از کاهش موانع پیرامون سلاحهای خودمختار و نظارت داخلی بوده است - که این اختلاف را در میان حساسترین نقاط اشتعال در سیاست هوش مصنوعی در حال حاضر قرار میدهد. ( رویترز )
دولت خواهان انعطافپذیری برای «هرگونه استفاده قانونی» است، در حالی که شرکت آنتروپیک استدلال میکند که آزمایشگاههای خصوصی همچنان باید مجاز به تعیین خطوط ایمنی سختگیرانه باشند. این موضوع به یکی از واضحترین آزمونها تاکنون تبدیل شده است که آیا یک شرکت هوش مصنوعی میتواند بدون اینکه به خاطر آن کنار گذاشته شود، به شرایط نظامی «نه» بگوید یا خیر. ( رویترز )
🧑💻 کارمندان OpenAI و گوگل از شکایت Antropic علیه پنتاگون حمایت میکنند ↗
این دعوی حقوقی به سرعت حمایت آزمایشگاههای رقیب را نیز به خود جلب کرد. نزدیک به ۴۰ کارمند از OpenAI و گوگل در یک جلسه توجیهی از Anthropic حمایت کردند و استدلال کردند که تلافیجویی علیه شرکتها به دلیل خطوط قرمز ایمنی هوش مصنوعی، خلاف منافع عمومی است. ( The Verge )
بنابراین بله، رقبا ناگهان خود را در یک جبهه یافتهاند - حداقل در این مورد. این گزارش بر نظارت گسترده و سلاحهای خودمختار غیرقابل اعتماد تمرکز دارد، که باعث میشود کل ماجرا کمتر شبیه تیراندازیهای استاندارد سیلیکون ولی و بیشتر شبیه یک خط مشی صنعتی واقعی در شن و ماسه... یا شاید گل و لای باشد. ( The Verge )
🛡️ OpenAI برای ایمنسازی عاملهای هوش مصنوعی خود، Promptfoo را تصاحب کرد ↗
OpenAI اعلام کرد که در حال خرید Promptfoo، استارتاپی متمرکز بر محافظت از مدلهای زبانی بزرگ در برابر حملات خصمانه، است. برنامه این است که فناوری خود را در OpenAI Frontier، پلتفرم سازمانی این شرکت برای عوامل هوش مصنوعی، ادغام کند. ( TechCrunch )
این یک حرکت قابل توجه است. همه میخواهند هوش مصنوعی عاملمحور، بیشتر، سریعتر و در همه جا کار کند - اما بخش امنیتی، چه کمی و چه خیلی زیاد، عقب مانده است. این معامله نشان میدهد که OpenAI فکر میکند مسابقه بزرگ بعدی فقط برای عاملهای هوشمندتر نیست، بلکه برای عاملهای ایمنتر نیز هست. ( TechCrunch )
🧪 شرکت آنتروپیک (Anthropic) ابزار بررسی کد را برای بررسی سیل کدهای تولید شده توسط هوش مصنوعی راهاندازی کرد ↗
آنتروپیک، Code Review را درون Claude Code ارائه داد که تیمهایی را هدف قرار میدهد که در درخواستهای pull ایجاد شده توسط ابزارهای کدنویسی هوش مصنوعی غرق شدهاند. این ابزار از چندین عامل به طور موازی برای اسکن کد، علامتگذاری مشکلات منطقی، رتبهبندی شدت و ارسال نظرات به طور مستقیم در GitHub استفاده میکند. ( TechCrunch )
طرح اولیه به اندازه کافی ساده است - هوش مصنوعی کد را سریعتر از آنچه انسانها بتوانند به طور معقول آن را بررسی کنند، تولید میکند، بنابراین اکنون هوش مصنوعی باید هوش مصنوعی را بررسی کند. این یک طرح کمی شبیه به مار خوردن دم خود است، اما عملی است. آنتروپیک میگوید که این طرح برای کاربران سازمانی که در حال حاضر خروجی کد عظیمی از Claude Code را مشاهده میکنند، طراحی شده است. ( TechCrunch )
💰 ارزش Nscale با پشتیبانی انویدیا در دور جدید تامین مالی به ۱۴.۶ میلیارد دلار رسید ↗
شرکت زیرساخت هوش مصنوعی بریتانیا، Nscale، در دور سوم جذب سرمایه، ۲ میلیارد دلار جذب کرد و به ارزش ۱۴.۶ میلیارد دلار رسید. حامیان مالی این شرکت شامل Aker، 8090 Industries، Nvidia، Citadel، Dell و Jane Street بودند که این رقم، رأی اعتماد نسبتاً سنگینی محسوب میشود. ( رویترز )
این مورد مهم است زیرا یک مدل جدید یا یک تغییر در چتبات نیست. این بخشِ بیل و کلنگِ رونق است - محاسبات، زیرساختها، ظرفیت، تمام ماشینآلات سنگین پشت پرده. شاید فریبنده نباشد، اما بخش بزرگی از پول اکنون در آنجا جریان دارد. ( رویترز )
🧠 آزمایشگاههای AMI متعلق به یان لکون، ۱.۰۳ میلیارد دلار برای ساخت مدلهای جهانی جمعآوری کردند ↗
شرکت جدید یان لکان، AMI Labs، با ارزشگذاری ۳.۵ میلیارد دلاری پیش از جذب سرمایه، ۱.۰۳ میلیارد دلار جذب سرمایه کرد. این شرکت به دنبال «مدلهای جهانی» است - سیستمهای هوش مصنوعی که قرار است از خود واقعیت یاد بگیرند، نه اینکه عمدتاً از زبان بیاموزند. ( تککرانچ )
این یک چرخش فلسفی مستقیم به اجماع فعلیِ مبتنی بر LLM است، و همچنین یک چرخش به طرز قابل توجهی رک و صریح. لکان سالهاست استدلال میکند که مدلهای زبانی امروزی ما را به سطح هوش انسانی نمیرسانند، بنابراین این افزایش [هزینه] آن استدلال را به یک آزمایش بسیار پرهزینه تبدیل میکند. ( تککرانچ )
🇨🇳 مراکز فناوری چینی علیرغم هشدارهای امنیتی، عامل هوش مصنوعی OpenClaw را تبلیغ میکنند ↗
چندین دولت محلی چین از OpenClaw، یک عامل هوش مصنوعی که علیرغم نگرانیهای امنیتی مرتبط با دسترسی آن به دادههای شخصی، به سرعت در حال گسترش است، حمایت میکنند. بنابراین به نظر میرسد که نظر رسمی این است: بله، خطراتی وجود دارد - و بله، بیایید به هر حال آن را گسترش دهیم. ( رویترز )
داستان از همین شکاف شروع میشود. مراکز محلی خواهان رونق اقتصادی و شتاب اکوسیستم هستند، در حالی که نهادهای نظارتی در مورد افشای دادهها هشدار میدهند. اکنون این یک الگوی آشنا در حوزه هوش مصنوعی است - اول با سرعت بدوید، بعداً نردههای محافظ را مرتب کنید، یا حداقل اینطور به نظر میرسد. ( رویترز )
سوالات متداول
چرا شرکت آنتروپیک به دلیل محدودیتهای استفاده از هوش مصنوعی از پنتاگون شکایت میکند؟
شرکت آنتروپیک میگوید پنتاگون پس از آنکه این شرکت از پذیرش شرایط گستردهتری که میتواند شامل سلاحهای خودمختار و نظارت داخلی شود، خودداری کرد، آن را یک خطر برای زنجیره تأمین نامید. این موضوع، دعوی حقوقی را به چیزی فراتر از وضعیت فروشنده تبدیل میکند. این شرکت در حال آزمایش این موضوع است که آیا یک آزمایشگاه هوش مصنوعی میتواند محدودیتهای ایمنی محکمی را حفظ کند و همچنان بدون جریمه شدن، برای کارهای دولتی رقابت کند یا خیر.
چرا کارمندان OpenAI و گوگل در این اختلاف نظر در مورد ایمنی هوش مصنوعی، از شرکت Antropic حمایت میکنند؟
این گزارش نشان میدهد که بسیاری از افراد در آزمایشگاههای رقیب، این موضوع را به عنوان یک مسئلهی ایمنی هوش مصنوعیِ سابقهدار میبینند، نه صرفاً نزاعی بین یک شرکت و یک آژانس. نگرانی آنها این است که مجازات یک فروشنده به دلیل حفظ خطوط قرمز، میتواند بازار گستردهتر را برای تضعیف پادمانها تحت فشار قرار دهد. در عمل، این میتواند نحوهی مذاکرهی قراردادهای هوش مصنوعی دفاعی و بخش دولتی در آینده را شکل دهد.
پرونده آنتروپیک-پنتاگون چه چیزی را میتواند برای سیاستهای هوش مصنوعی و قراردادهای دفاعی تغییر دهد؟
اگر شرکت آنتروپیک برنده شود، شرکتهای هوش مصنوعی ممکن است جایگاه قویتری برای تعریف کاربردهای غیرقابل قبول، حتی هنگام فروش به محیطهای حساس دولتی، داشته باشند. اگر ببازد، سازمانها میتوانند اهرم فشاری برای مطالبه شرایط «استفاده قانونی» گستردهتر از تأمینکنندگان به دست آورند. در هر صورت، این اختلاف احتمالاً بر زبان تدارکات، بررسی ریسکها و نحوه نگارش حفاظهای ایمنی در معاملات دفاعی تأثیر خواهد گذاشت.
چرا OpenAI شرکت Promptfoo را برای عوامل هوش مصنوعی خریداری کرد؟
Promptfoo به خاطر آزمایش مدلهای زبانی بزرگ در برابر اعلانهای خصمانه و سایر نقاط ضعف امنیتی شناخته شده است. گنجاندن این نوع ابزار در پلتفرم عامل سازمانی OpenAI نشان میدهد که این شرکت، استقرار ایمنتر را به عنوان یک مزیت رقابتی و نه یک کار جانبی میبیند. با افزایش حجم کار عاملهای هوش مصنوعی، نادیده گرفتن آزمایشهای تابآوری و سوءاستفاده بسیار دشوارتر میشود.
تیمها چگونه میتوانند سیل کدهای تولید شده توسط هوش مصنوعی را با خیال راحتتری مدیریت کنند؟
ویژگی جدید بررسی کد (Code Review) شرکت آنتروپیک (Anthropic) در داخل Claude Code، تیمهایی را هدف قرار داده است که با درخواستهای pull تولید شده توسط ابزارهای کدنویسی هوش مصنوعی، دست و پنجه نرم میکنند. این ویژگی از چندین عامل به طور موازی برای شناسایی مشکلات منطقی، رتبهبندی شدت و ارسال نظر در GitHub استفاده میکند. معمولاً ابزارهایی مانند این به اولویتبندی حجم کمک میکنند، اما بررسیکنندگان انسانی هنوز برای معماری، زمینه و تأیید نهایی اهمیت دارند.
چرا زیرساختهای هوش مصنوعی در حال حاضر اینقدر سرمایهگذاری میکنند؟
آخرین دور تأمین مالی Nscale نشان میدهد که صنعت هوش مصنوعی هنوز سرمایه عظیمی را به حوزه محاسبات، زیرساختها و ظرفیت اختصاص میدهد. این هزینهها ممکن است کمتر از یک رونمایی پر زرق و برق از یک مدل به چشم بیاید، اما زیربنای هر چیز دیگری است. وقتی تقاضا برای آموزش و استقرار همچنان افزایش مییابد، شرکتهایی که بیل و کلنگ میفروشند، اغلب به بزرگترین برندگان تبدیل میشوند.
مدلهای جهانی چه کسانی هستند و چرا یان لکان روی آنها شرط میبندد؟
مدلهای جهانی، سیستمهای هوش مصنوعی هستند که برای یادگیری از نحوه رفتار جهان طراحی شدهاند، نه اینکه اساساً به دادههای زبانی متکی باشند. این موضوع اهمیت دارد زیرا یان لکان مدتهاست استدلال میکند که مدلهای زبانی به خودی خود بعید است به هوش در سطح انسان برسند. آزمایشگاههای AMI این دیدگاه را به یک شرطبندی تجاری بزرگ در مسیری متفاوت برای تحقیقات پیشرفته هوش مصنوعی تبدیل میکنند.
چرا مراکز فناوری چینی با وجود هشدارهای امنیتی از OpenClaw حمایت میکنند؟
داستان OpenClaw شکاف آشنایی را در بازارهای فناوریِ بهسرعت در حال رشد نشان میدهد: دولتهای محلی خواهان رشد، یارانه و شتاب اکوسیستم هستند، در حالی که تنظیمکنندگان نگران افشای دادهها و امنیت هستند. حمایت از نماینده علیرغم هشدارها نشان میدهد که انگیزههای اقتصادی در برخی مکانها غالب است. برای ناظران، این یادآوری دیگری است که پذیرش اغلب سریعتر از نظارت پیش میرود.