🏛️ دولت برای حفظ بریتانیا در مسیر سریع پیشرفتهای هوش مصنوعی، آزمایشگاه جدیدی ایجاد خواهد کرد ↗
بریتانیا در حال راهاندازی یک آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی با حمایت دولت است و آن را به عنوان یک کار «آسمان آبی» معرفی میکند - نوعی که پرخطر، کند و گاهی اوقات به گونهای نتیجه میدهد که باعث میشود همه افراد دیگر طوری به نظر برسند که انگار چرت زدهاند. ( GOV.UK )
تمرکز فقط روی «مدلهای بزرگتر، پردازندههای گرافیکی بیشتر» نیست - بلکه مقابله با نقصهای مداوم مانند توهم، حافظه کوتاهمدت و استدلال غیرقابلپیشبینی، به علاوه دسترسی محققان به محاسبات جدی از طریق منبع تحقیقات هوش مصنوعی است. بسیار معقول به نظر میرسد... و همچنین، بیسروصدا، مانند تلاشی برای جلوگیری از جذب فوری بهترین مغزهای بریتانیا به جاهای دیگر است. ( GOV.UK )
🧨 مدیرعامل انویدیا به پایان سرمایهگذاری در OpenAI و Antropic اشاره کرد ↗
جنسن هوانگ اشاره میکند که انویدیا ممکن است به سرمایهگذاری در آزمایشگاههای هوش مصنوعی پیشرو به همان شیوه سابق ادامه ندهد - با توجه به پویایی عرضه اولیه سهام (و مقیاس گسترده بررسیها که مورد بحث است) که انجام این سبک از سرمایهگذاری را دشوارتر میکند. ( رویترز )
این یک تغییر لحن است که ارزش توجه دارد: انویدیا سلطان بیل و کلنگ این رونق است، اما اشاره میکند که «داشتن قطعاتی از ماینرها» دیگر همیشه بازی نیست. یا شاید فقط طفره رفتن با صدای بلند است، کاری که مدیران عامل انجام میدهند، مثل نفس کشیدن. ( رویترز )
🧩 اختصاصی: گروه بزرگ فناوری از آنتروپیک در نبرد پنتاگون حمایت میکند، زیرا سرمایهگذاران برای کاهش تنش بر سر پادمانهای هوش مصنوعی تلاش میکنند ↗
بنبست آنتروپیک با پنتاگون به یک دیگ زودپز تمامعیار تبدیل میشود - بنا به گزارشها، سرمایهگذاران میخواهند تنشها کاهش یابد، در حالی که این شرکت سعی میکند موضع خود را در مورد زبان حفاظتی (بهویژه در مورد نظارت) حفظ کند. ( رویترز )
معنای ضمنی داستان تقریباً از متن آن بلندتر است: در عصر هوش مصنوعی، متن قرارداد «ایرادگیری قانونی» نیست، بلکه اساساً سیاست محصول است - و این سیاست تعیین میکند که آیا یک مدل به ابزار، سلاح یا یک مسئولیت گسترده تبدیل میشود. ( رویترز )
🪖 سم آلتمن اذعان میکند که OpenAI نمیتواند استفاده پنتاگون از هوش مصنوعی را کنترل کند ↗
طبق گزارشها، آلتمن به کارکنان OpenAI گفته است که نمیتواند نحوه استفاده پنتاگون از هوش مصنوعی خود را پس از استقرار آن کنترل کند - که با صدای مهیبی فرود میآید زیرا دقیقاً همان ترسی را که مردم دور آن حلقه زدهاند، نام میبرد. ( گاردین )
پسزمینه گستردهتر، افزایش اصطکاک بین «ما با قوانین کمک خواهیم کرد» و «ما کاملاً کمک خواهیم کرد»، به علاوه واکنشهای منفی داخلی و عمومی زمانی که پذیرش نظامی شتابزده یا فرصتطلبانه به نظر میرسد، است. اصول اخلاقی در اینجا کمتر یک خط صاف و بیشتر شبیه یک لکه رنگ خیس است - همه پا در آن میگذارند، سپس در مورد اینکه کفش چه کسی است بحث میکنند. ( گاردین )
🧬 بورسیه جدید هوش مصنوعی در ژنومیک با همکاری موسسه سنگر و گوگل دیپ مایند ↗
موسسه Wellcome Sanger در حال راهاندازی یک بورسیه تحصیلی با بودجه DeepMind است که بر کاربرد هوش مصنوعی در ژنومیک تمرکز دارد - که به عنوان اولین فرصت برای یک عضو DeepMind در این حوزه خاص در نظر گرفته شده است. ( sanger.ac.uk )
نکته جالب (و صادقانه بگویم، کمی هم دلگرمکننده) تأکید بر مسائل ژنومیکِ کمتر بررسیشدهای است که هوش مصنوعی هنوز همه جا به آنها راه پیدا نکرده است - بهعلاوه این نکته صریح که دیپمایند تحقیقات این همکار را هدایت نمیکند. مثل این است که به کسی موشک بدهید و بگویید «برو چیزی کشف کن» به جای اینکه بگویید «برو نقشه راه ما را بهینه کن». ( sanger.ac.uk )
سوالات متداول
آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی تحت حمایت دولت بریتانیا چیست و چه کاری انجام خواهد داد؟
آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی که توسط دولت حمایت میشود، به عنوان یک تلاش تحقیقاتی «آسمان آبی» - کاری پرخطر که ممکن است زمان ببرد تا به ثمر بنشیند - قرار گرفته است. این آزمایشگاه به جای تمرکز صرف بر مقیاسبندی مدلهای هرچه بزرگتر، قصد دارد به مسائل مداومی مانند توهم، حافظه کوتاه مدت و استدلال غیرقابل پیشبینی بپردازد. نکته اصلی این است که پیشرفتها از اصول اولیه حاصل میشوند، نه صرفاً از اضافه کردن پردازندههای گرافیکی بیشتر.
آزمایشگاه تحقیقات بنیادی هوش مصنوعی بریتانیا چگونه میتواند به محققان در دسترسی به محاسبات جدی کمک کند؟
در کنار آزمایشگاه تحقیقات بنیادی هوش مصنوعی بریتانیا، این طرح دسترسی به محاسبات قابل توجه از طریق منبع تحقیقات هوش مصنوعی را برجسته میکند. در عمل، این به این معنی است که محققان میتوانند آزمایشهایی را انجام دهند که در غیر این صورت با محدودیت هزینه یا زیرساخت مواجه میشدند. همچنین تیمها را قادر میسازد تا ایدهها را در مقیاسی آزمایش کنند که در آن مشکلاتی مانند قابلیت اطمینان و استحکام، نه فقط در حد تئوری، بلکه به صورت ملموس درآیند.
چرا بریتانیا بر توهم، حافظه کوتاه مدت و استدلال غیرقابل پیشبینی تأکید دارد؟
این نقاط ضعف از آن نوع نقاطی هستند که در هنگام استقرار ظاهر میشوند و میتوانند به سرعت اعتماد را از بین ببرند. تمرکز اعلام شده نشان میدهد که هدف فقط قابلیت نیست، بلکه قابلیت اطمینان است - کاهش خروجیهای ساختگی، بهبود نحوه مدیریت مدلها در زمینههای طولانیتر و کاهش بینظمی استدلال. این نوع کار اغلب کندتر و پرخطرتر است، به همین دلیل است که به عنوان تحقیقات بنیادی در نظر گرفته میشود.
تغییر لحن انویدیا در سرمایهگذاری روی OpenAI یا Anthropic در واقع چه چیزی را نشان میدهد؟
این گزارش این را به عنوان اشارهای به این موضوع مطرح میکند که انویدیا ممکن است به سرمایهگذاری در آزمایشگاههای پیشرو به همان شیوهی قبلی ادامه ندهد، به خصوص که پویایی عرضهی اولیهی سهام و اندازههای بزرگ چک، این استراتژی را پیچیده میکند. حتی به عنوان یک رهبر «بیل و کلنگ» در سختافزار هوش مصنوعی، این نشان میدهد که سهام مالکیت همیشه بهترین گزینه نیست. همچنین میتواند پیامرسانی محتاطانهای باشد که در اظهارات مدیران اجرایی رایج است.
چرا اختلاف نظر آنتروپیک با پنتاگون در مورد «زبان حفاظتی» تا این حد مهم است؟
نکته کلیدی مقاله این است که متن قرارداد میتواند به سیاست محصول تبدیل شود - به خصوص وقتی که به نظارت و سایر کاربردهای حساس مربوط میشود. طبق گزارشها، سرمایهگذاران میخواهند از شدت این درگیری بکاهند، در حالی که شرکت سعی میکند موضع خود را در مورد تدابیر حفاظتی حفظ کند. در بسیاری از استقرارهای هوش مصنوعی، این بندها مشخص میکنند که سیستم برای چه مواردی میتواند مورد استفاده قرار گیرد و شرکت عملاً چه خطراتی را میپذیرد.
وقتی سم آلتمن میگوید OpenAI نمیتواند نحوهی استفادهی پنتاگون از هوش مصنوعی را کنترل کند، منظورش چیست؟
این یک محدودیت عملی را توصیف میکند: وقتی ابزاری مستقر میشود، توسعهدهنده اصلی ممکن است توانایی محدودی برای مدیریت استفاده در مراحل بعدی داشته باشد. این موضوع به شدت اهمیت دارد زیرا به ترس اصلی مردم در مورد پذیرش نظامی اشاره دارد - قوانین ممکن است در مرحله عقد قرارداد وجود داشته باشند، اما اجرای آنها میتواند دشوار باشد. همچنین نشاندهنده تنش گستردهتری بین «کمک، با محدودیتها» و «کمک، صرف نظر از محدودیتها» است