اخبار هوش مصنوعی، ۲۷ فوریه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۲۷ فوریه ۲۰۲۶

🏛️ ترامپ به آژانس‌های آمریکایی دستور داد هوش مصنوعی شرکت آنتروپیک را کنار بگذارند، زیرا پنتاگون این استارت‌آپ را یک ریسک تأمین مواد اولیه می‌داند

رئیس جمهور ایالات متحده به آژانس‌های فدرال دستور داد که استفاده از فناوری آنتروپیک را متوقف کنند، و یک دوره زمانی برای خروج اجباری تعیین کرد که جدایی فروشنده را به یک لحظه سیاسی تمام عیار تبدیل می‌کند. پنتاگون، آنتروپیک را به عنوان یک «خطر زنجیره تأمین» معرفی کرد - برچسبی قابل توجه برای چسباندن به یک آزمایشگاه بزرگ هوش مصنوعی ایالات متحده. ( رویترز )

شرکت آنتروپیک اعلام کرد که با این اقدام مقابله خواهد کرد و این ماجرا، پرتوی بر کشمکش بزرگتر می‌اندازد: قوانین ایمنی شرکت‌ها در مقابل خواسته‌های دولت برای حداکثر انعطاف‌پذیری. اگر شما یک خریدار سازمانی هستید که از حاشیه نظاره‌گر ماجرا هستید، مسئله اصلی ساده است - وقتی مشتری، دولت است، شرایط دولت معمولاً تعیین‌کننده است. ( رویترز )

⚖️ پنتاگون، آنتروپیک را تهدیدی برای امنیت ملی اعلام کرد

این نسخه، بافت بیشتری به رویکرد به سبک لیست سیاه و معنای آن برای پیمانکاران - نه فقط آژانس‌ها - که با اکوسیستم فدرال در ارتباط هستند، اضافه می‌کند. این نوعی قانون است که به سرعت به بیرون موج می‌زند، مانند جوهر در آب، با این تفاوت که جوهر، کاغذبازی‌های تدارکاتی است. ( واشنگتن پست )

همچنین اختلاف نظر مستقیمی بر سر این وجود دارد که آیا سیاست‌های استفاده از یک مدل می‌تواند کاربردهای نظامی، به ویژه در مورد موارد استفاده حساس، را محدود کند یا خیر. واکنش صنعت به نظر پرتنش می‌رسید؛ این سابقه است که مردم را نگران می‌کند، نه فقط شرکتی که مورد انتقاد قرار گرفته است. ( واشنگتن پست )

☁️ همکاری استراتژیک OpenAI و آمازون اعلام شد

OpenAI از یک همکاری استراتژیک با آمازون خبر داد که پلتفرم Frontier شرکت OpenAI را به AWS می‌آورد و امکان اجرای و مدیریت سیستم‌های هم‌رده‌ی OpenAI را برای مشتریان فراهم می‌کند. اگر در حوزه‌ی هوش مصنوعی به دنبال این بوده‌اید که «چه کسی میزبان چه چیزی است»، این خبر مانند یک تغییر قدرت است که در حین جابجایی بسیاری از اثاثیه، صدای خود را پایین نگه می‌دارد. ( OpenAI )

همچنین به عنوان پاسخی به فشار تقاضا - گزینه‌های زیرساختی بیشتر، مسیرهای توزیع بیشتر، بزرگراه‌های تک بانده کمتر - مطرح می‌شود. اینکه آیا این امر استقرار را روان‌تر می‌کند یا صرفاً به همه امکان پیکربندی نادرست را می‌دهد، هنوز مشخص نیست. ( OpenAI )

🧠 OpenAI هوش مصنوعی مبتنی بر وضعیت را در AWS راه‌اندازی می‌کند و نشان دهنده تغییر قدرت در صفحه کنترل است

نظر Computerworld: «هوش مصنوعی حالت‌مند» در AWS چیزی فراتر از میزبانی است - این موضوع مربوط به محل قرارگیری صفحه کنترل و اینکه چه کسی می‌تواند هویت، حافظه و گردش کار را در طول جلسات هماهنگ کند، است. سیستم‌های حالت‌مند می‌توانند بسیار «شبیه عامل» به نظر برسند، برای بهتر شدن و برای اینکه «اوه، این چی بود که الان انجام داد». ( Computerworld )

معنای ضمنی این موضوع، هندسه رقابتی است: ابرها می‌خواهند لایه پلتفرم را در اختیار داشته باشند، آزمایشگاه‌های هوش مصنوعی می‌خواهند سطح محصول را در اختیار داشته باشند و مشتریان می‌خواهند که ساعت ۲ بامداد خراب نشود. همه فرمان ماشین را می‌خواهند - حتی اگر وانمود کنند که نمی‌خواهند. ( کامپیوترورلد )

🔐 تغییر کلید «بی‌سروصدا»ی رابط برنامه‌نویسی کاربردی گوگل، داده‌های هوش مصنوعی Gemini را فاش کرد - CSO

یک هشدار امنیتی پیرامون کلیدهای Google Cloud API و Gemini وجود دارد - با این گزارش که تغییرات در نحوه عملکرد (یا برخورد با کلیدها) می‌تواند فرضیات "جاسازی ایمن" را به یک خطر بزرگ و خزنده تبدیل کند. بخش نگران‌کننده این است که چقدر راحت می‌توانید همه چیز را "مثل همیشه" انجام دهید و همچنان خارج از حفاظ‌ها بمانید. ( CSO Online )

محققان به کلیدهای افشا شده گسترده در سراسر سازمان‌ها اشاره کردند، که کمتر یک اشکال واحد و بیشتر یادآوری این است که ادغام‌های هوش مصنوعی، شعاع انفجار مدیریت رازهای قدیمی و خسته‌کننده را گسترش می‌دهند. این چیزهای غیرجذاب هستند که اغلب مضر هستند. ( SC Media )

📱🎶 قطره‌های جمینی: به‌روزرسانی‌های جدید برنامه جمینی، فوریه ...

به‌روزرسانی برنامه Gemini گوگل، بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» را که برای مسائل سنگین علمی و مهندسی در نظر گرفته شده است، در کنار دروازه‌بندی سطح مشترکین، برجسته می‌کند. حالت هوشمندتر، حصار بالاتر، ترکیب کلاسیک. ( blog.google )

همچنین: از Lyria 3 به عنوان یک مدل موسیقی که می‌تواند آهنگ‌های کوتاه را از متن یا تصاویر در نسخه بتا تولید کند، نام برده می‌شود. جالب است که همان اکوسیستم که استدلال‌های حرفه‌ای را مطرح می‌کند، موسیقی متن‌های سریع و سفارشی را نیز ارائه می‌دهد - دو دنده، یک گیربکس. ( blog.google )

سوالات متداول

توقف استفاده از فناوری انسان‌گرایان توسط سازمان‌های فدرال ایالات متحده، چه چیزی را تغییر می‌دهد؟

این امر، انتخاب فروشنده را به یک قانون تدارکات تبدیل می‌کند، با یک پنجره حذف تدریجی تعریف‌شده به جای تصمیمات موردی و تیم به تیم. چارچوب‌بندی «ریسک زنجیره تأمین» پنتاگون، ریسک‌ها را افزایش می‌دهد و نشان می‌دهد که واجد شرایط بودن ممکن است بیشتر از شایستگی محصول، توسط سیاست شکل بگیرد. برای خریداران، این امر تأکید می‌کند که چگونه الزامات بخش دولتی می‌تواند مدل عملیاتی ترجیحی ارائه‌دهنده را نادیده بگیرد.

چگونه برچسب «خطر زنجیره تأمین» پنتاگون می‌تواند بر پیمانکاران و فروشندگان پایین‌دستی تأثیر بگذارد؟

این گزارش نشان می‌دهد که این تأثیر محدود به سازمان‌ها نیست؛ بلکه می‌تواند به پیمانکارانی که با اکوسیستم فدرال در ارتباط هستند نیز سرایت کند. حتی اگر هرگز مدل را مستقیماً خریداری نکنید، مجموعه شما می‌تواند محدودیت‌هایی را از طریق قراردادهای اصلی، بندهای جریان نزولی و بررسی‌های انطباق به ارث ببرد. به همین دلیل است که «چه کسی از چه چیزی استفاده می‌کند» به سرعت به یک مشکل اداری تبدیل می‌شود، نه فقط یک بحث معماری.

اگر یک ارائه‌دهنده اصلی هوش مصنوعی در فهرست ممنوعیت خرید هوش مصنوعی فدرال قرار گیرد، خریداران سازمانی چه باید بکنند؟

با ترسیم نقشه‌ای از محل حضور ارائه‌دهنده شروع کنید: استفاده مستقیم از API، ویژگی‌های تعبیه‌شده و وابستگی‌های فروشنده. یک طرح مبادله ایجاد کنید که نقاط پایانی مدل، قالب‌های اعلان، خطوط مبنای ارزیابی و تأییدیه‌های مدیریتی را پوشش دهد، تا حذف تدریجی به قطع کامل سرویس تبدیل نشود. در بسیاری از خطوط لوله، تنظیمات ارائه‌دهنده دوگانه و انتزاع‌های قابل حمل، شعاع انفجار را هنگام تغییر یک شبه سیاست‌ها کاهش می‌دهند.

آیا سیاست‌های استفاده از هوش مصنوعی می‌تواند با الزامات دولتی یا نظامی در تضاد باشد؟

بله - این وضعیت، تضاد مستقیمی را بر سر اینکه آیا قوانین استفاده از یک ارائه‌دهنده مدل می‌تواند کاربردهای حساس را محدود کند یا خیر، برجسته می‌کند. دولت‌ها اغلب برای حداکثر انعطاف‌پذیری تلاش می‌کنند، در حالی که آزمایشگاه‌ها ممکن است مرزهای سختگیرانه‌تری را در موارد استفاده خاص اعمال کنند. اگر به مشتریان بخش دولتی خدمات ارائه می‌دهید، شرایط قراردادی را برنامه‌ریزی کنید که الزامات ماموریت را در اولویت قرار دهد و ممکن است کنترل‌ها یا تضمین‌های متفاوتی را مطالبه کند.

همکاری OpenAI و آمازون چه تاثیری بر محل اجرای سیستم‌های OpenAI خواهد داشت؟

این امر با آوردن پلتفرم Frontier شرکت OpenAI به AWS، حوزه‌هایی را که مشتریان می‌توانند سیستم‌های هم‌رده OpenAI را اداره و مدیریت کنند، گسترش می‌دهد. در عمل، این می‌تواند به معنای گزینه‌های زیرساختی بیشتر و مسیرهای استقرار تک‌خطی کمتر باشد. همچنین می‌تواند مسئولیت‌ها را تغییر دهد: دکمه‌های بیشتری برای تنظیم هویت، دسترسی و عملیات، که می‌تواند از انعطاف‌پذیری پشتیبانی کند، اما همچنین ریسک پیکربندی را افزایش می‌دهد.

«هوش مصنوعی مبتنی بر وضعیت» در AWS چیست و چرا صفحه کنترل اهمیت دارد؟

هوش مصنوعی «وضعیت‌محور» به سیستم‌هایی اشاره دارد که می‌توانند اطلاعات را در طول جلسات منتقل کنند، که در گردش‌های کاری واقعی می‌توانند بیشتر شبیه عامل (agent) به نظر برسند. سوال مربوط به صفحه کنترل بر این متمرکز است که چه کسی هویت، حافظه و گردش کار جلسه را هماهنگ می‌کند: فضای ابری شما، آزمایشگاه هوش مصنوعی یا لایه پلتفرم خودتان. این موضوع برای مدیریت، اشکال‌زدایی و واکنش به حوادث، زمانی که مشکلی در ساعت ۲ بامداد رخ می‌دهد، اهمیت دارد.

چگونه یک تغییر کلید «بی‌سروصدا»ی API گوگل می‌تواند منجر به خطر افشای اطلاعات Gemini شود؟

اگر رفتار کلید یا انتظارات مربوط به مدیریت کلید تغییر کند، شیوه‌هایی که زمانی ایمن به نظر می‌رسیدند - مانند جاسازی کلیدها - می‌توانند بدون اینکه تیم‌ها متوجه شوند، خطرناک شوند. گزارش‌ها این را به عنوان یک مشکل مدیریت اسرار که توسط ادغام‌های هوش مصنوعی تشدید شده است، بیان می‌کنند، نه یک اشکال منفرد. یک رویکرد رایج این است که با همه کلیدها به عنوان موارد پرخطر رفتار شود، مرتباً تغییر داده شود و آنها در سمت سرور و تحت کنترل‌های دسترسی دقیق نگه داشته شوند.

چه چیزهایی در به‌روزرسانی فوریه ۲۰۲۶ اپلیکیشن جمینی جدید است و چه کسانی آن را دریافت می‌کنند؟

گوگل بر بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» که برای مسائل سنگین‌تر علمی و مهندسی در نظر گرفته شده است، تأکید می‌کند. این به‌روزرسانی همچنین بر تقسیم‌بندی مشترکین تأکید دارد، به این معنی که قابلیت و دسترسی ممکن است بسته به طرح متفاوت باشد. به طور جداگانه، از Lyria 3 به عنوان یک مدل موسیقی یاد شده است که می‌تواند آهنگ‌های کوتاهی را از متن یا تصاویر در نسخه بتا تولید کند و ابزارهای خلاقانه برنامه را گسترش دهد.

سوالات متداول

توقف استفاده از فناوری انسان‌گرایان توسط سازمان‌های فدرال ایالات متحده، چه چیزی را تغییر می‌دهد؟

این امر، انتخاب فروشنده را به یک قانون تدارکات تبدیل می‌کند، با یک پنجره حذف تدریجی تعریف‌شده به جای تصمیمات موردی و تیم به تیم. چارچوب‌بندی «ریسک زنجیره تأمین» پنتاگون، ریسک‌ها را افزایش می‌دهد و نشان می‌دهد که واجد شرایط بودن ممکن است بیشتر از شایستگی محصول، توسط سیاست شکل بگیرد. برای خریداران، این امر تأکید می‌کند که چگونه الزامات بخش دولتی می‌تواند مدل عملیاتی ترجیحی ارائه‌دهنده را نادیده بگیرد.

چگونه برچسب «خطر زنجیره تأمین» پنتاگون می‌تواند بر پیمانکاران و فروشندگان پایین‌دستی تأثیر بگذارد؟

این گزارش نشان می‌دهد که این تأثیر محدود به سازمان‌ها نیست؛ بلکه می‌تواند به پیمانکارانی که با اکوسیستم فدرال در ارتباط هستند نیز سرایت کند. حتی اگر هرگز مدل را مستقیماً خریداری نکنید، مجموعه شما می‌تواند محدودیت‌هایی را از طریق قراردادهای اصلی، بندهای جریان نزولی و بررسی‌های انطباق به ارث ببرد. به همین دلیل است که «چه کسی از چه چیزی استفاده می‌کند» به سرعت به یک مشکل اداری تبدیل می‌شود، نه فقط یک بحث معماری.

اگر یک ارائه‌دهنده اصلی هوش مصنوعی در فهرست ممنوعیت خرید هوش مصنوعی فدرال قرار گیرد، خریداران سازمانی چه باید بکنند؟

با ترسیم نقشه‌ای از محل حضور ارائه‌دهنده شروع کنید: استفاده مستقیم از API، ویژگی‌های تعبیه‌شده و وابستگی‌های فروشنده. یک طرح مبادله ایجاد کنید که نقاط پایانی مدل، قالب‌های اعلان، خطوط مبنای ارزیابی و تأییدیه‌های مدیریتی را پوشش دهد، تا حذف تدریجی به قطع کامل سرویس تبدیل نشود. در بسیاری از خطوط لوله، تنظیمات ارائه‌دهنده دوگانه و انتزاع‌های قابل حمل، شعاع انفجار را هنگام تغییر یک شبه سیاست‌ها کاهش می‌دهند.

آیا سیاست‌های استفاده از هوش مصنوعی می‌تواند با الزامات دولتی یا نظامی در تضاد باشد؟

بله - این وضعیت، تضاد مستقیمی را بر سر اینکه آیا قوانین استفاده از یک ارائه‌دهنده مدل می‌تواند کاربردهای حساس را محدود کند یا خیر، برجسته می‌کند. دولت‌ها اغلب برای حداکثر انعطاف‌پذیری تلاش می‌کنند، در حالی که آزمایشگاه‌ها ممکن است مرزهای سختگیرانه‌تری را در موارد استفاده خاص اعمال کنند. اگر به مشتریان بخش دولتی خدمات ارائه می‌دهید، شرایط قراردادی را برنامه‌ریزی کنید که الزامات ماموریت را در اولویت قرار دهد و ممکن است کنترل‌ها یا تضمین‌های متفاوتی را مطالبه کند.

همکاری OpenAI و آمازون چه تاثیری بر محل اجرای سیستم‌های OpenAI خواهد داشت؟

این امر با آوردن پلتفرم Frontier شرکت OpenAI به AWS، حوزه‌هایی را که مشتریان می‌توانند سیستم‌های هم‌رده OpenAI را اداره و مدیریت کنند، گسترش می‌دهد. در عمل، این می‌تواند به معنای گزینه‌های زیرساختی بیشتر و مسیرهای استقرار تک‌خطی کمتر باشد. همچنین می‌تواند مسئولیت‌ها را تغییر دهد: دکمه‌های بیشتری برای تنظیم هویت، دسترسی و عملیات، که می‌تواند از انعطاف‌پذیری پشتیبانی کند، اما همچنین ریسک پیکربندی را افزایش می‌دهد.

«هوش مصنوعی مبتنی بر وضعیت» در AWS چیست و چرا صفحه کنترل اهمیت دارد؟

هوش مصنوعی «وضعیت‌محور» به سیستم‌هایی اشاره دارد که می‌توانند اطلاعات را در طول جلسات منتقل کنند، که در گردش‌های کاری واقعی می‌توانند بیشتر شبیه عامل (agent) به نظر برسند. سوال مربوط به صفحه کنترل بر این متمرکز است که چه کسی هویت، حافظه و گردش کار جلسه را هماهنگ می‌کند: فضای ابری شما، آزمایشگاه هوش مصنوعی یا لایه پلتفرم خودتان. این موضوع برای مدیریت، اشکال‌زدایی و واکنش به حوادث، زمانی که مشکلی در ساعت ۲ بامداد رخ می‌دهد، اهمیت دارد.

چگونه یک تغییر کلید «بی‌سروصدا»ی API گوگل می‌تواند منجر به خطر افشای اطلاعات Gemini شود؟

اگر رفتار کلید یا انتظارات مربوط به مدیریت کلید تغییر کند، شیوه‌هایی که زمانی ایمن به نظر می‌رسیدند - مانند جاسازی کلیدها - می‌توانند بدون اینکه تیم‌ها متوجه شوند، خطرناک شوند. گزارش‌ها این را به عنوان یک مشکل مدیریت اسرار که توسط ادغام‌های هوش مصنوعی تشدید شده است، بیان می‌کنند، نه یک اشکال منفرد. یک رویکرد رایج این است که با همه کلیدها به عنوان موارد پرخطر رفتار شود، مرتباً تغییر داده شود و آنها در سمت سرور و تحت کنترل‌های دسترسی دقیق نگه داشته شوند.

چه چیزهایی در به‌روزرسانی فوریه ۲۰۲۶ اپلیکیشن جمینی جدید است و چه کسانی آن را دریافت می‌کنند؟

گوگل بر بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» که برای مسائل سنگین‌تر علمی و مهندسی در نظر گرفته شده است، تأکید می‌کند. این به‌روزرسانی همچنین بر تقسیم‌بندی مشترکین تأکید دارد، به این معنی که قابلیت و دسترسی ممکن است بسته به طرح متفاوت باشد. به طور جداگانه، از Lyria 3 به عنوان یک مدل موسیقی یاد شده است که می‌تواند آهنگ‌های کوتاهی را از متن یا تصاویر در نسخه بتا تولید کند و ابزارهای خلاقانه برنامه را گسترش دهد.

اخبار هوش مصنوعی دیروز: ۲۶ فوریه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ