🏛️ ترامپ به آژانسهای آمریکایی دستور داد هوش مصنوعی شرکت آنتروپیک را کنار بگذارند، زیرا پنتاگون این استارتآپ را یک ریسک تأمین مواد اولیه میداند ↗
رئیس جمهور ایالات متحده به آژانسهای فدرال دستور داد که استفاده از فناوری آنتروپیک را متوقف کنند، و یک دوره زمانی برای خروج اجباری تعیین کرد که جدایی فروشنده را به یک لحظه سیاسی تمام عیار تبدیل میکند. پنتاگون، آنتروپیک را به عنوان یک «خطر زنجیره تأمین» معرفی کرد - برچسبی قابل توجه برای چسباندن به یک آزمایشگاه بزرگ هوش مصنوعی ایالات متحده. ( رویترز )
شرکت آنتروپیک اعلام کرد که با این اقدام مقابله خواهد کرد و این ماجرا، پرتوی بر کشمکش بزرگتر میاندازد: قوانین ایمنی شرکتها در مقابل خواستههای دولت برای حداکثر انعطافپذیری. اگر شما یک خریدار سازمانی هستید که از حاشیه نظارهگر ماجرا هستید، مسئله اصلی ساده است - وقتی مشتری، دولت است، شرایط دولت معمولاً تعیینکننده است. ( رویترز )
⚖️ پنتاگون، آنتروپیک را تهدیدی برای امنیت ملی اعلام کرد ↗
این نسخه، بافت بیشتری به رویکرد به سبک لیست سیاه و معنای آن برای پیمانکاران - نه فقط آژانسها - که با اکوسیستم فدرال در ارتباط هستند، اضافه میکند. این نوعی قانون است که به سرعت به بیرون موج میزند، مانند جوهر در آب، با این تفاوت که جوهر، کاغذبازیهای تدارکاتی است. ( واشنگتن پست )
همچنین اختلاف نظر مستقیمی بر سر این وجود دارد که آیا سیاستهای استفاده از یک مدل میتواند کاربردهای نظامی، به ویژه در مورد موارد استفاده حساس، را محدود کند یا خیر. واکنش صنعت به نظر پرتنش میرسید؛ این سابقه است که مردم را نگران میکند، نه فقط شرکتی که مورد انتقاد قرار گرفته است. ( واشنگتن پست )
☁️ همکاری استراتژیک OpenAI و آمازون اعلام شد ↗
OpenAI از یک همکاری استراتژیک با آمازون خبر داد که پلتفرم Frontier شرکت OpenAI را به AWS میآورد و امکان اجرای و مدیریت سیستمهای همردهی OpenAI را برای مشتریان فراهم میکند. اگر در حوزهی هوش مصنوعی به دنبال این بودهاید که «چه کسی میزبان چه چیزی است»، این خبر مانند یک تغییر قدرت است که در حین جابجایی بسیاری از اثاثیه، صدای خود را پایین نگه میدارد. ( OpenAI )
همچنین به عنوان پاسخی به فشار تقاضا - گزینههای زیرساختی بیشتر، مسیرهای توزیع بیشتر، بزرگراههای تک بانده کمتر - مطرح میشود. اینکه آیا این امر استقرار را روانتر میکند یا صرفاً به همه امکان پیکربندی نادرست را میدهد، هنوز مشخص نیست. ( OpenAI )
🧠 OpenAI هوش مصنوعی مبتنی بر وضعیت را در AWS راهاندازی میکند و نشان دهنده تغییر قدرت در صفحه کنترل است ↗
نظر Computerworld: «هوش مصنوعی حالتمند» در AWS چیزی فراتر از میزبانی است - این موضوع مربوط به محل قرارگیری صفحه کنترل و اینکه چه کسی میتواند هویت، حافظه و گردش کار را در طول جلسات هماهنگ کند، است. سیستمهای حالتمند میتوانند بسیار «شبیه عامل» به نظر برسند، برای بهتر شدن و برای اینکه «اوه، این چی بود که الان انجام داد». ( Computerworld )
معنای ضمنی این موضوع، هندسه رقابتی است: ابرها میخواهند لایه پلتفرم را در اختیار داشته باشند، آزمایشگاههای هوش مصنوعی میخواهند سطح محصول را در اختیار داشته باشند و مشتریان میخواهند که ساعت ۲ بامداد خراب نشود. همه فرمان ماشین را میخواهند - حتی اگر وانمود کنند که نمیخواهند. ( کامپیوترورلد )
🔐 تغییر کلید «بیسروصدا»ی رابط برنامهنویسی کاربردی گوگل، دادههای هوش مصنوعی Gemini را فاش کرد - CSO ↗
یک هشدار امنیتی پیرامون کلیدهای Google Cloud API و Gemini وجود دارد - با این گزارش که تغییرات در نحوه عملکرد (یا برخورد با کلیدها) میتواند فرضیات "جاسازی ایمن" را به یک خطر بزرگ و خزنده تبدیل کند. بخش نگرانکننده این است که چقدر راحت میتوانید همه چیز را "مثل همیشه" انجام دهید و همچنان خارج از حفاظها بمانید. ( CSO Online )
محققان به کلیدهای افشا شده گسترده در سراسر سازمانها اشاره کردند، که کمتر یک اشکال واحد و بیشتر یادآوری این است که ادغامهای هوش مصنوعی، شعاع انفجار مدیریت رازهای قدیمی و خستهکننده را گسترش میدهند. این چیزهای غیرجذاب هستند که اغلب مضر هستند. ( SC Media )
📱🎶 قطرههای جمینی: بهروزرسانیهای جدید برنامه جمینی، فوریه ... ↗
بهروزرسانی برنامه Gemini گوگل، بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» را که برای مسائل سنگین علمی و مهندسی در نظر گرفته شده است، در کنار دروازهبندی سطح مشترکین، برجسته میکند. حالت هوشمندتر، حصار بالاتر، ترکیب کلاسیک. ( blog.google )
همچنین: از Lyria 3 به عنوان یک مدل موسیقی که میتواند آهنگهای کوتاه را از متن یا تصاویر در نسخه بتا تولید کند، نام برده میشود. جالب است که همان اکوسیستم که استدلالهای حرفهای را مطرح میکند، موسیقی متنهای سریع و سفارشی را نیز ارائه میدهد - دو دنده، یک گیربکس. ( blog.google )
سوالات متداول
توقف استفاده از فناوری انسانگرایان توسط سازمانهای فدرال ایالات متحده، چه چیزی را تغییر میدهد؟
این امر، انتخاب فروشنده را به یک قانون تدارکات تبدیل میکند، با یک پنجره حذف تدریجی تعریفشده به جای تصمیمات موردی و تیم به تیم. چارچوببندی «ریسک زنجیره تأمین» پنتاگون، ریسکها را افزایش میدهد و نشان میدهد که واجد شرایط بودن ممکن است بیشتر از شایستگی محصول، توسط سیاست شکل بگیرد. برای خریداران، این امر تأکید میکند که چگونه الزامات بخش دولتی میتواند مدل عملیاتی ترجیحی ارائهدهنده را نادیده بگیرد.
چگونه برچسب «خطر زنجیره تأمین» پنتاگون میتواند بر پیمانکاران و فروشندگان پاییندستی تأثیر بگذارد؟
این گزارش نشان میدهد که این تأثیر محدود به سازمانها نیست؛ بلکه میتواند به پیمانکارانی که با اکوسیستم فدرال در ارتباط هستند نیز سرایت کند. حتی اگر هرگز مدل را مستقیماً خریداری نکنید، مجموعه شما میتواند محدودیتهایی را از طریق قراردادهای اصلی، بندهای جریان نزولی و بررسیهای انطباق به ارث ببرد. به همین دلیل است که «چه کسی از چه چیزی استفاده میکند» به سرعت به یک مشکل اداری تبدیل میشود، نه فقط یک بحث معماری.
اگر یک ارائهدهنده اصلی هوش مصنوعی در فهرست ممنوعیت خرید هوش مصنوعی فدرال قرار گیرد، خریداران سازمانی چه باید بکنند؟
با ترسیم نقشهای از محل حضور ارائهدهنده شروع کنید: استفاده مستقیم از API، ویژگیهای تعبیهشده و وابستگیهای فروشنده. یک طرح مبادله ایجاد کنید که نقاط پایانی مدل، قالبهای اعلان، خطوط مبنای ارزیابی و تأییدیههای مدیریتی را پوشش دهد، تا حذف تدریجی به قطع کامل سرویس تبدیل نشود. در بسیاری از خطوط لوله، تنظیمات ارائهدهنده دوگانه و انتزاعهای قابل حمل، شعاع انفجار را هنگام تغییر یک شبه سیاستها کاهش میدهند.
آیا سیاستهای استفاده از هوش مصنوعی میتواند با الزامات دولتی یا نظامی در تضاد باشد؟
بله - این وضعیت، تضاد مستقیمی را بر سر اینکه آیا قوانین استفاده از یک ارائهدهنده مدل میتواند کاربردهای حساس را محدود کند یا خیر، برجسته میکند. دولتها اغلب برای حداکثر انعطافپذیری تلاش میکنند، در حالی که آزمایشگاهها ممکن است مرزهای سختگیرانهتری را در موارد استفاده خاص اعمال کنند. اگر به مشتریان بخش دولتی خدمات ارائه میدهید، شرایط قراردادی را برنامهریزی کنید که الزامات ماموریت را در اولویت قرار دهد و ممکن است کنترلها یا تضمینهای متفاوتی را مطالبه کند.
همکاری OpenAI و آمازون چه تاثیری بر محل اجرای سیستمهای OpenAI خواهد داشت؟
این امر با آوردن پلتفرم Frontier شرکت OpenAI به AWS، حوزههایی را که مشتریان میتوانند سیستمهای همرده OpenAI را اداره و مدیریت کنند، گسترش میدهد. در عمل، این میتواند به معنای گزینههای زیرساختی بیشتر و مسیرهای استقرار تکخطی کمتر باشد. همچنین میتواند مسئولیتها را تغییر دهد: دکمههای بیشتری برای تنظیم هویت، دسترسی و عملیات، که میتواند از انعطافپذیری پشتیبانی کند، اما همچنین ریسک پیکربندی را افزایش میدهد.
«هوش مصنوعی مبتنی بر وضعیت» در AWS چیست و چرا صفحه کنترل اهمیت دارد؟
هوش مصنوعی «وضعیتمحور» به سیستمهایی اشاره دارد که میتوانند اطلاعات را در طول جلسات منتقل کنند، که در گردشهای کاری واقعی میتوانند بیشتر شبیه عامل (agent) به نظر برسند. سوال مربوط به صفحه کنترل بر این متمرکز است که چه کسی هویت، حافظه و گردش کار جلسه را هماهنگ میکند: فضای ابری شما، آزمایشگاه هوش مصنوعی یا لایه پلتفرم خودتان. این موضوع برای مدیریت، اشکالزدایی و واکنش به حوادث، زمانی که مشکلی در ساعت ۲ بامداد رخ میدهد، اهمیت دارد.
چگونه یک تغییر کلید «بیسروصدا»ی API گوگل میتواند منجر به خطر افشای اطلاعات Gemini شود؟
اگر رفتار کلید یا انتظارات مربوط به مدیریت کلید تغییر کند، شیوههایی که زمانی ایمن به نظر میرسیدند - مانند جاسازی کلیدها - میتوانند بدون اینکه تیمها متوجه شوند، خطرناک شوند. گزارشها این را به عنوان یک مشکل مدیریت اسرار که توسط ادغامهای هوش مصنوعی تشدید شده است، بیان میکنند، نه یک اشکال منفرد. یک رویکرد رایج این است که با همه کلیدها به عنوان موارد پرخطر رفتار شود، مرتباً تغییر داده شود و آنها در سمت سرور و تحت کنترلهای دسترسی دقیق نگه داشته شوند.
چه چیزهایی در بهروزرسانی فوریه ۲۰۲۶ اپلیکیشن جمینی جدید است و چه کسانی آن را دریافت میکنند؟
گوگل بر بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» که برای مسائل سنگینتر علمی و مهندسی در نظر گرفته شده است، تأکید میکند. این بهروزرسانی همچنین بر تقسیمبندی مشترکین تأکید دارد، به این معنی که قابلیت و دسترسی ممکن است بسته به طرح متفاوت باشد. به طور جداگانه، از Lyria 3 به عنوان یک مدل موسیقی یاد شده است که میتواند آهنگهای کوتاهی را از متن یا تصاویر در نسخه بتا تولید کند و ابزارهای خلاقانه برنامه را گسترش دهد.
سوالات متداول
توقف استفاده از فناوری انسانگرایان توسط سازمانهای فدرال ایالات متحده، چه چیزی را تغییر میدهد؟
این امر، انتخاب فروشنده را به یک قانون تدارکات تبدیل میکند، با یک پنجره حذف تدریجی تعریفشده به جای تصمیمات موردی و تیم به تیم. چارچوببندی «ریسک زنجیره تأمین» پنتاگون، ریسکها را افزایش میدهد و نشان میدهد که واجد شرایط بودن ممکن است بیشتر از شایستگی محصول، توسط سیاست شکل بگیرد. برای خریداران، این امر تأکید میکند که چگونه الزامات بخش دولتی میتواند مدل عملیاتی ترجیحی ارائهدهنده را نادیده بگیرد.
چگونه برچسب «خطر زنجیره تأمین» پنتاگون میتواند بر پیمانکاران و فروشندگان پاییندستی تأثیر بگذارد؟
این گزارش نشان میدهد که این تأثیر محدود به سازمانها نیست؛ بلکه میتواند به پیمانکارانی که با اکوسیستم فدرال در ارتباط هستند نیز سرایت کند. حتی اگر هرگز مدل را مستقیماً خریداری نکنید، مجموعه شما میتواند محدودیتهایی را از طریق قراردادهای اصلی، بندهای جریان نزولی و بررسیهای انطباق به ارث ببرد. به همین دلیل است که «چه کسی از چه چیزی استفاده میکند» به سرعت به یک مشکل اداری تبدیل میشود، نه فقط یک بحث معماری.
اگر یک ارائهدهنده اصلی هوش مصنوعی در فهرست ممنوعیت خرید هوش مصنوعی فدرال قرار گیرد، خریداران سازمانی چه باید بکنند؟
با ترسیم نقشهای از محل حضور ارائهدهنده شروع کنید: استفاده مستقیم از API، ویژگیهای تعبیهشده و وابستگیهای فروشنده. یک طرح مبادله ایجاد کنید که نقاط پایانی مدل، قالبهای اعلان، خطوط مبنای ارزیابی و تأییدیههای مدیریتی را پوشش دهد، تا حذف تدریجی به قطع کامل سرویس تبدیل نشود. در بسیاری از خطوط لوله، تنظیمات ارائهدهنده دوگانه و انتزاعهای قابل حمل، شعاع انفجار را هنگام تغییر یک شبه سیاستها کاهش میدهند.
آیا سیاستهای استفاده از هوش مصنوعی میتواند با الزامات دولتی یا نظامی در تضاد باشد؟
بله - این وضعیت، تضاد مستقیمی را بر سر اینکه آیا قوانین استفاده از یک ارائهدهنده مدل میتواند کاربردهای حساس را محدود کند یا خیر، برجسته میکند. دولتها اغلب برای حداکثر انعطافپذیری تلاش میکنند، در حالی که آزمایشگاهها ممکن است مرزهای سختگیرانهتری را در موارد استفاده خاص اعمال کنند. اگر به مشتریان بخش دولتی خدمات ارائه میدهید، شرایط قراردادی را برنامهریزی کنید که الزامات ماموریت را در اولویت قرار دهد و ممکن است کنترلها یا تضمینهای متفاوتی را مطالبه کند.
همکاری OpenAI و آمازون چه تاثیری بر محل اجرای سیستمهای OpenAI خواهد داشت؟
این امر با آوردن پلتفرم Frontier شرکت OpenAI به AWS، حوزههایی را که مشتریان میتوانند سیستمهای همرده OpenAI را اداره و مدیریت کنند، گسترش میدهد. در عمل، این میتواند به معنای گزینههای زیرساختی بیشتر و مسیرهای استقرار تکخطی کمتر باشد. همچنین میتواند مسئولیتها را تغییر دهد: دکمههای بیشتری برای تنظیم هویت، دسترسی و عملیات، که میتواند از انعطافپذیری پشتیبانی کند، اما همچنین ریسک پیکربندی را افزایش میدهد.
«هوش مصنوعی مبتنی بر وضعیت» در AWS چیست و چرا صفحه کنترل اهمیت دارد؟
هوش مصنوعی «وضعیتمحور» به سیستمهایی اشاره دارد که میتوانند اطلاعات را در طول جلسات منتقل کنند، که در گردشهای کاری واقعی میتوانند بیشتر شبیه عامل (agent) به نظر برسند. سوال مربوط به صفحه کنترل بر این متمرکز است که چه کسی هویت، حافظه و گردش کار جلسه را هماهنگ میکند: فضای ابری شما، آزمایشگاه هوش مصنوعی یا لایه پلتفرم خودتان. این موضوع برای مدیریت، اشکالزدایی و واکنش به حوادث، زمانی که مشکلی در ساعت ۲ بامداد رخ میدهد، اهمیت دارد.
چگونه یک تغییر کلید «بیسروصدا»ی API گوگل میتواند منجر به خطر افشای اطلاعات Gemini شود؟
اگر رفتار کلید یا انتظارات مربوط به مدیریت کلید تغییر کند، شیوههایی که زمانی ایمن به نظر میرسیدند - مانند جاسازی کلیدها - میتوانند بدون اینکه تیمها متوجه شوند، خطرناک شوند. گزارشها این را به عنوان یک مشکل مدیریت اسرار که توسط ادغامهای هوش مصنوعی تشدید شده است، بیان میکنند، نه یک اشکال منفرد. یک رویکرد رایج این است که با همه کلیدها به عنوان موارد پرخطر رفتار شود، مرتباً تغییر داده شود و آنها در سمت سرور و تحت کنترلهای دسترسی دقیق نگه داشته شوند.
چه چیزهایی در بهروزرسانی فوریه ۲۰۲۶ اپلیکیشن جمینی جدید است و چه کسانی آن را دریافت میکنند؟
گوگل بر بهبودهای Gemini 3.1 و حالت استدلال «Deep Think» که برای مسائل سنگینتر علمی و مهندسی در نظر گرفته شده است، تأکید میکند. این بهروزرسانی همچنین بر تقسیمبندی مشترکین تأکید دارد، به این معنی که قابلیت و دسترسی ممکن است بسته به طرح متفاوت باشد. به طور جداگانه، از Lyria 3 به عنوان یک مدل موسیقی یاد شده است که میتواند آهنگهای کوتاهی را از متن یا تصاویر در نسخه بتا تولید کند و ابزارهای خلاقانه برنامه را گسترش دهد.