اخبار هوش مصنوعی، ۴ مارس ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۴ مارس ۲۰۲۶

🏛️ دولت برای حفظ بریتانیا در مسیر سریع پیشرفت‌های هوش مصنوعی، آزمایشگاه جدیدی ایجاد خواهد کرد

بریتانیا در حال راه‌اندازی یک آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی با حمایت دولت است و آن را به عنوان یک کار «آسمان آبی» معرفی می‌کند - نوعی که پرخطر، کند و گاهی اوقات به گونه‌ای نتیجه می‌دهد که باعث می‌شود همه افراد دیگر طوری به نظر برسند که انگار چرت زده‌اند. ( GOV.UK )

تمرکز فقط روی «مدل‌های بزرگ‌تر، پردازنده‌های گرافیکی بیشتر» نیست - بلکه مقابله با نقص‌های مداوم مانند توهم، حافظه کوتاه‌مدت و استدلال غیرقابل‌پیش‌بینی، به علاوه دسترسی محققان به محاسبات جدی از طریق منبع تحقیقات هوش مصنوعی است. بسیار معقول به نظر می‌رسد... و همچنین، بی‌سروصدا، مانند تلاشی برای جلوگیری از جذب فوری بهترین مغزهای بریتانیا به جاهای دیگر است. ( GOV.UK )

🧨 مدیرعامل انویدیا به پایان سرمایه‌گذاری در OpenAI و Antropic اشاره کرد

جنسن هوانگ اشاره می‌کند که انویدیا ممکن است به سرمایه‌گذاری در آزمایشگاه‌های هوش مصنوعی پیشرو به همان شیوه سابق ادامه ندهد - با توجه به پویایی عرضه اولیه سهام (و مقیاس گسترده بررسی‌ها که مورد بحث است) که انجام این سبک از سرمایه‌گذاری را دشوارتر می‌کند. ( رویترز )

این یک تغییر لحن است که ارزش توجه دارد: انویدیا سلطان بیل و کلنگ این رونق است، اما اشاره می‌کند که «داشتن قطعاتی از ماینرها» دیگر همیشه بازی نیست. یا شاید فقط طفره رفتن با صدای بلند است، کاری که مدیران عامل انجام می‌دهند، مثل نفس کشیدن. ( رویترز )

🧩 اختصاصی: گروه بزرگ فناوری از آنتروپیک در نبرد پنتاگون حمایت می‌کند، زیرا سرمایه‌گذاران برای کاهش تنش بر سر پادمان‌های هوش مصنوعی تلاش می‌کنند

بن‌بست آنتروپیک با پنتاگون به یک دیگ زودپز تمام‌عیار تبدیل می‌شود - بنا به گزارش‌ها، سرمایه‌گذاران می‌خواهند تنش‌ها کاهش یابد، در حالی که این شرکت سعی می‌کند موضع خود را در مورد زبان حفاظتی (به‌ویژه در مورد نظارت) حفظ کند. ( رویترز )

معنای ضمنی داستان تقریباً از متن آن بلندتر است: در عصر هوش مصنوعی، متن قرارداد «ایرادگیری قانونی» نیست، بلکه اساساً سیاست محصول است - و این سیاست تعیین می‌کند که آیا یک مدل به ابزار، سلاح یا یک مسئولیت گسترده تبدیل می‌شود. ( رویترز )

🪖 سم آلتمن اذعان می‌کند که OpenAI نمی‌تواند استفاده پنتاگون از هوش مصنوعی را کنترل کند

طبق گزارش‌ها، آلتمن به کارکنان OpenAI گفته است که نمی‌تواند نحوه استفاده پنتاگون از هوش مصنوعی خود را پس از استقرار آن کنترل کند - که با صدای مهیبی فرود می‌آید زیرا دقیقاً همان ترسی را که مردم دور آن حلقه زده‌اند، نام می‌برد. ( گاردین )

پس‌زمینه گسترده‌تر، افزایش اصطکاک بین «ما با قوانین کمک خواهیم کرد» و «ما کاملاً کمک خواهیم کرد»، به علاوه واکنش‌های منفی داخلی و عمومی زمانی که پذیرش نظامی شتاب‌زده یا فرصت‌طلبانه به نظر می‌رسد، است. اصول اخلاقی در اینجا کمتر یک خط صاف و بیشتر شبیه یک لکه رنگ خیس است - همه پا در آن می‌گذارند، سپس در مورد اینکه کفش چه کسی است بحث می‌کنند. ( گاردین )

🧬 بورسیه جدید هوش مصنوعی در ژنومیک با همکاری موسسه سنگر و گوگل دیپ مایند

موسسه Wellcome Sanger در حال راه‌اندازی یک بورسیه تحصیلی با بودجه DeepMind است که بر کاربرد هوش مصنوعی در ژنومیک تمرکز دارد - که به عنوان اولین فرصت برای یک عضو DeepMind در این حوزه خاص در نظر گرفته شده است. ( sanger.ac.uk )

نکته جالب (و صادقانه بگویم، کمی هم دلگرم‌کننده) تأکید بر مسائل ژنومیکِ کمتر بررسی‌شده‌ای است که هوش مصنوعی هنوز همه جا به آنها راه پیدا نکرده است - به‌علاوه این نکته صریح که دیپ‌مایند تحقیقات این همکار را هدایت نمی‌کند. مثل این است که به کسی موشک بدهید و بگویید «برو چیزی کشف کن» به جای اینکه بگویید «برو نقشه راه ما را بهینه کن». ( sanger.ac.uk )

سوالات متداول

آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی تحت حمایت دولت بریتانیا چیست و چه کاری انجام خواهد داد؟

آزمایشگاه تحقیقاتی بنیادی هوش مصنوعی که توسط دولت حمایت می‌شود، به عنوان یک تلاش تحقیقاتی «آسمان آبی» - کاری پرخطر که ممکن است زمان ببرد تا به ثمر بنشیند - قرار گرفته است. این آزمایشگاه به جای تمرکز صرف بر مقیاس‌بندی مدل‌های هرچه بزرگتر، قصد دارد به مسائل مداومی مانند توهم، حافظه کوتاه مدت و استدلال غیرقابل پیش‌بینی بپردازد. نکته اصلی این است که پیشرفت‌ها از اصول اولیه حاصل می‌شوند، نه صرفاً از اضافه کردن پردازنده‌های گرافیکی بیشتر.

آزمایشگاه تحقیقات بنیادی هوش مصنوعی بریتانیا چگونه می‌تواند به محققان در دسترسی به محاسبات جدی کمک کند؟

در کنار آزمایشگاه تحقیقات بنیادی هوش مصنوعی بریتانیا، این طرح دسترسی به محاسبات قابل توجه از طریق منبع تحقیقات هوش مصنوعی را برجسته می‌کند. در عمل، این به این معنی است که محققان می‌توانند آزمایش‌هایی را انجام دهند که در غیر این صورت با محدودیت هزینه یا زیرساخت مواجه می‌شدند. همچنین تیم‌ها را قادر می‌سازد تا ایده‌ها را در مقیاسی آزمایش کنند که در آن مشکلاتی مانند قابلیت اطمینان و استحکام، نه فقط در حد تئوری، بلکه به صورت ملموس درآیند.

چرا بریتانیا بر توهم، حافظه کوتاه مدت و استدلال غیرقابل پیش‌بینی تأکید دارد؟

این نقاط ضعف از آن نوع نقاطی هستند که در هنگام استقرار ظاهر می‌شوند و می‌توانند به سرعت اعتماد را از بین ببرند. تمرکز اعلام شده نشان می‌دهد که هدف فقط قابلیت نیست، بلکه قابلیت اطمینان است - کاهش خروجی‌های ساختگی، بهبود نحوه مدیریت مدل‌ها در زمینه‌های طولانی‌تر و کاهش بی‌نظمی استدلال. این نوع کار اغلب کندتر و پرخطرتر است، به همین دلیل است که به عنوان تحقیقات بنیادی در نظر گرفته می‌شود.

تغییر لحن انویدیا در سرمایه‌گذاری روی OpenAI یا Anthropic در واقع چه چیزی را نشان می‌دهد؟

این گزارش این را به عنوان اشاره‌ای به این موضوع مطرح می‌کند که انویدیا ممکن است به سرمایه‌گذاری در آزمایشگاه‌های پیشرو به همان شیوه‌ی قبلی ادامه ندهد، به خصوص که پویایی عرضه‌ی اولیه‌ی سهام و اندازه‌های بزرگ چک، این استراتژی را پیچیده می‌کند. حتی به عنوان یک رهبر «بیل و کلنگ» در سخت‌افزار هوش مصنوعی، این نشان می‌دهد که سهام مالکیت همیشه بهترین گزینه نیست. همچنین می‌تواند پیام‌رسانی محتاطانه‌ای باشد که در اظهارات مدیران اجرایی رایج است.

چرا اختلاف نظر آنتروپیک با پنتاگون در مورد «زبان حفاظتی» تا این حد مهم است؟

نکته کلیدی مقاله این است که متن قرارداد می‌تواند به سیاست محصول تبدیل شود - به خصوص وقتی که به نظارت و سایر کاربردهای حساس مربوط می‌شود. طبق گزارش‌ها، سرمایه‌گذاران می‌خواهند از شدت این درگیری بکاهند، در حالی که شرکت سعی می‌کند موضع خود را در مورد تدابیر حفاظتی حفظ کند. در بسیاری از استقرارهای هوش مصنوعی، این بندها مشخص می‌کنند که سیستم برای چه مواردی می‌تواند مورد استفاده قرار گیرد و شرکت عملاً چه خطراتی را می‌پذیرد.

وقتی سم آلتمن می‌گوید OpenAI نمی‌تواند نحوه‌ی استفاده‌ی پنتاگون از هوش مصنوعی را کنترل کند، منظورش چیست؟

این یک محدودیت عملی را توصیف می‌کند: وقتی ابزاری مستقر می‌شود، توسعه‌دهنده اصلی ممکن است توانایی محدودی برای مدیریت استفاده در مراحل بعدی داشته باشد. این موضوع به شدت اهمیت دارد زیرا به ترس اصلی مردم در مورد پذیرش نظامی اشاره دارد - قوانین ممکن است در مرحله عقد قرارداد وجود داشته باشند، اما اجرای آنها می‌تواند دشوار باشد. همچنین نشان‌دهنده تنش گسترده‌تری بین «کمک، با محدودیت‌ها» و «کمک، صرف نظر از محدودیت‌ها» است

اخبار هوش مصنوعی دیروز: ۳ مارس ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ