اخبار هوش مصنوعی، ۵ فوریه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۵ فوریه ۲۰۲۶

🕵️ بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک همکاری می‌کند

بریتانیا می‌گوید با مایکروسافت، دانشگاهیان و دیگر متخصصان همکاری می‌کند تا سیستمی بسازد که بتواند دیپ‌فیک را به صورت آنلاین تشخیص دهد - به علاوه، روشی مناسب برای آزمایش اینکه آیا ابزارهای تشخیص در دنیای واقعی کارایی دارند یا خیر.

تأکید بر آسیب‌هایی است که بیشترین تأثیر را دارند: جعل هویت، کلاهبرداری و محتوای جنسی بدون رضایت. اگرچه فریبنده نیستند، اما آسیب‌ها در اینجا متمرکز شده‌اند.

🧠 شرکت آنتروپیک در حالی که بازار سهام نرم‌افزار را تنبیه می‌کند، به‌روزرسانی هوش مصنوعی خود را منتشر می‌کند

شرکت آنتروپیک (Anthropic) مدل ارتقا یافته‌ی کلود (Opus 4.6) را عرضه کرد که عملکرد قوی‌تری در کدنویسی و امور مالی، به علاوه‌ی قابلیت پرداخت تا ۱ میلیون توکن به صورت یکجا، ارائه می‌دهد. این خیلی پیچیده است - مثل این است که یک کارت کتابخانه‌ی کامل به مدل بدهید.

آنها همچنین از طریق کلود کد به سمت «عامل‌ها» متمایل شده‌اند، جایی که وظایف می‌توانند بین دستیاران خودکار تقسیم شوند. مفید، بیش از آنچه انتظار دارید - و همچنین نوعی تغییر که باعث می‌شود سرمایه‌گذاران نرم‌افزارهای قدیمی کمی نگران شوند.

🧑💼 OpenAI از سرویس عامل هوش مصنوعی خود به عنوان بخشی از تلاش برای جذب کسب‌وکارها رونمایی کرد

شرکت OpenAI از «Frontier» رونمایی کرد، یک سرویس متمرکز بر سازمان برای ساخت و مدیریت عامل‌های هوش مصنوعی - ربات‌هایی که کارهای خاصی مانند اشکال‌زدایی نرم‌افزار، مدیریت گردش‌های کاری و از این قبیل کارها را انجام می‌دهند.

نکته‌ی جالب این است که قرار است به زیرساخت‌های موجود شرکت متصل شود و حتی از عوامل شخص ثالث نیز پشتیبانی کند، که مانند تلاش OpenAI برای تبدیل شدن به اتاق کنترل است - نه فقط ارائه‌دهنده‌ی مدل. بلندپروازانه... یا کمی انحصارطلبانه، بسته به اینکه چگونه به آن نگاه کنید.

🪖 آمریکا و چین از بیانیه مشترک در مورد استفاده از هوش مصنوعی در ارتش انصراف دادند

تعدادی از کشورها یک بیانیه غیرالزام‌آور را امضا کردند که اصول استفاده از هوش مصنوعی در جنگ را مشخص می‌کند - مواردی مانند مسئولیت انسانی، ساختارهای فرماندهی شفاف و آزمایش‌های جدی و ارزیابی ریسک.

اما ایالات متحده و چین امضا نکردند. که کل داستان در یک ضرباهنگ عجیب خلاصه می‌شود - کتاب قانون وجود دارد، و بزرگترین بازیگران... قلم را در دست ندارند.

🎭 قانون نیویورک افشای اطلاعات مربوط به بازیگران تولید شده توسط هوش مصنوعی در تبلیغات را الزامی می‌کند و حقوق تبلیغات پس از مرگ را تقویت می‌کند

نیویورک قوانینی را امضا کرد که بر اساس آنها تبلیغاتی که از «بازیگران مصنوعی» تولید شده توسط هوش مصنوعی استفاده می‌کنند، باید این موضوع را به وضوح برای مخاطبان ایالت فاش کنند - حتی اگر تبلیغ‌کننده در جای دیگری مستقر باشد. اساساً این قانون این است: یک انسان جعلی را از مردم پنهان نکنید و آن را بازاریابی بنامید.

به طور جداگانه، ایالت قوانین مربوط به استفاده تجاری از تصاویر افراد متوفی، از جمله کپی‌های دیجیتال، را تشدید کرد. راستش را بخواهید، کمی ناخوشایند است، اما در عین حال «به دورانی که هویت به کمربند ایمنی نیاز دارد، خوش آمدید»

سوالات متداول

بریتانیا با همکاری مایکروسافت چه برنامه‌ای برای شناسایی دیپ‌فیک آنلاین دارد؟

بریتانیا می‌گوید با مایکروسافت، دانشگاهیان و دیگر متخصصان همکاری خواهد کرد تا سیستمی بسازد که بتواند دیپ‌فیک را به صورت آنلاین تشخیص دهد. این طرح همچنین شامل ایجاد روشی قابل اعتماد برای آزمایش این است که آیا ابزارهای تشخیص در خارج از آزمایشگاه نیز کارایی دارند یا خیر. تمرکز بر آسیب‌هایی است که بیشترین آسیب را می‌زنند: جعل هویت، کلاهبرداری و محتوای جنسی بدون رضایت.

آزمایش‌های «درون‌محیطی» برای آشکارسازهای دیپ‌فیک چه تفاوتی با نسخه‌های نمایشی خواهد داشت؟

در کنار خودِ آشکارساز، بریتانیا بر روشی برای آزمایش ابزارهای تشخیص دیپ‌فیک در شرایط واقعی تأکید دارد. در بسیاری از خطوط تولید، مدل‌ها روی مجموعه داده‌های جمع‌آوری‌شده قوی به نظر می‌رسند، اما وقتی قالب محتوا، فشرده‌سازی یا تاکتیک‌های خصمانه تغییر می‌کنند، ضعیف می‌شوند. یک رویکرد ارزیابی ساختاریافته به مقایسه مداوم ابزارها کمک می‌کند و نشان می‌دهد که تشخیص در محیط‌های آنلاین زنده کجا با شکست مواجه می‌شود.

آنتروپیک در کلود اوپوس ۴.۶ چه تغییری کرد و چرا محدودیت توکن اهمیت دارد؟

شرکت آنتروپیک می‌گوید Claude Opus 4.6 عملکرد را در حوزه‌هایی مانند کدنویسی و امور مالی بهبود می‌بخشد و می‌تواند تا ۱ میلیون توکن از متن را مدیریت کند. این پنجره متن بزرگ‌تر می‌تواند کار با اسناد طولانی یا پایگاه‌های کد پیچیده را بدون بارگذاری مجدد مداوم اطلاعات آسان‌تر کند. آن‌ها همچنین از طریق Claude Code، «عامل‌ها» را برجسته کرده‌اند، جایی که وظایف می‌توانند بین دستیاران خودکار تقسیم شوند.

OpenAI "Frontier" چیست و چگونه در گردش کارهای سازمانی جای می‌گیرد؟

OpenAI «Frontier» را به عنوان یک سرویس متمرکز بر سازمان برای ساخت و مدیریت عامل‌های هوش مصنوعی که کارهای خاصی مانند اشکال‌زدایی نرم‌افزار یا مدیریت گردش‌های کاری را انجام می‌دهند، معرفی کرد. این سرویس به گونه‌ای طراحی شده است که به زیرساخت‌های موجود شرکت متصل شود، نه اینکه به عنوان یک نقطه پایانی مدل مستقل عمل کند. OpenAI همچنین اعلام کرد که می‌تواند از عامل‌های شخص ثالث پشتیبانی کند، که به معنای یک لایه کنترل برای هماهنگی سیستم‌های عامل مختلف است.

بیانیه هوش مصنوعی ارتش چه می‌گوید و برای مدیریت هوش مصنوعی چه معنایی دارد؟

این اعلامیه غیرالزام‌آور توصیف شده و اصول استفاده از هوش مصنوعی در جنگ، از جمله مسئولیت انسانی، ساختارهای فرماندهی شفاف و آزمایش و ارزیابی جدی ریسک را مشخص می‌کند. رویترز گزارش داد که بسیاری از کشورها آن را امضا کردند، اما ایالات متحده و چین آن را امضا نکردند. برای مدیریت هوش مصنوعی، این عدم تمایل اهمیت دارد زیرا بزرگترین بازیگران را خارج از مجموعه‌ای مشترک از هنجارهای اعلام شده قرار می‌دهد.

قوانین جدید نیویورک برای مجریان تولید شده توسط هوش مصنوعی در تبلیغات چه الزاماتی را تعیین می‌کند؟

نیویورک قوانینی را امضا کرد که تبلیغاتی که از «بازیگران مصنوعی» تولید شده توسط هوش مصنوعی استفاده می‌کنند را ملزم می‌کند تا این واقعیت را به وضوح برای مخاطبان در ایالت فاش کنند، حتی اگر تبلیغ‌کننده در جای دیگری مستقر باشد. به طور جداگانه، ایالت حقوق تبلیغات پس از مرگ را در مورد استفاده تجاری از شباهت‌های افراد متوفی، از جمله کپی‌های دیجیتال، تقویت کرد. از نظر عملی، این امر، مدیریت هوش مصنوعی را به سمت برچسب‌گذاری واضح‌تر و کنترل‌های سختگیرانه‌تر بر استفاده از هویت سوق می‌دهد.

اخبار هوش مصنوعی دیروز: ۴ فوریه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ