🕵️ بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپفیک همکاری میکند ↗
بریتانیا میگوید با مایکروسافت، دانشگاهیان و دیگر متخصصان همکاری میکند تا سیستمی بسازد که بتواند دیپفیک را به صورت آنلاین تشخیص دهد - به علاوه، روشی مناسب برای آزمایش اینکه آیا ابزارهای تشخیص در دنیای واقعی کارایی دارند یا خیر.
تأکید بر آسیبهایی است که بیشترین تأثیر را دارند: جعل هویت، کلاهبرداری و محتوای جنسی بدون رضایت. اگرچه فریبنده نیستند، اما آسیبها در اینجا متمرکز شدهاند.
🧠 شرکت آنتروپیک در حالی که بازار سهام نرمافزار را تنبیه میکند، بهروزرسانی هوش مصنوعی خود را منتشر میکند ↗
شرکت آنتروپیک (Anthropic) مدل ارتقا یافتهی کلود (Opus 4.6) را عرضه کرد که عملکرد قویتری در کدنویسی و امور مالی، به علاوهی قابلیت پرداخت تا ۱ میلیون توکن به صورت یکجا، ارائه میدهد. این خیلی پیچیده است - مثل این است که یک کارت کتابخانهی کامل به مدل بدهید.
آنها همچنین از طریق کلود کد به سمت «عاملها» متمایل شدهاند، جایی که وظایف میتوانند بین دستیاران خودکار تقسیم شوند. مفید، بیش از آنچه انتظار دارید - و همچنین نوعی تغییر که باعث میشود سرمایهگذاران نرمافزارهای قدیمی کمی نگران شوند.
🧑💼 OpenAI از سرویس عامل هوش مصنوعی خود به عنوان بخشی از تلاش برای جذب کسبوکارها رونمایی کرد ↗
شرکت OpenAI از «Frontier» رونمایی کرد، یک سرویس متمرکز بر سازمان برای ساخت و مدیریت عاملهای هوش مصنوعی - رباتهایی که کارهای خاصی مانند اشکالزدایی نرمافزار، مدیریت گردشهای کاری و از این قبیل کارها را انجام میدهند.
نکتهی جالب این است که قرار است به زیرساختهای موجود شرکت متصل شود و حتی از عوامل شخص ثالث نیز پشتیبانی کند، که مانند تلاش OpenAI برای تبدیل شدن به اتاق کنترل است - نه فقط ارائهدهندهی مدل. بلندپروازانه... یا کمی انحصارطلبانه، بسته به اینکه چگونه به آن نگاه کنید.
🪖 آمریکا و چین از بیانیه مشترک در مورد استفاده از هوش مصنوعی در ارتش انصراف دادند ↗
تعدادی از کشورها یک بیانیه غیرالزامآور را امضا کردند که اصول استفاده از هوش مصنوعی در جنگ را مشخص میکند - مواردی مانند مسئولیت انسانی، ساختارهای فرماندهی شفاف و آزمایشهای جدی و ارزیابی ریسک.
اما ایالات متحده و چین امضا نکردند. که کل داستان در یک ضرباهنگ عجیب خلاصه میشود - کتاب قانون وجود دارد، و بزرگترین بازیگران... قلم را در دست ندارند.
🎭 قانون نیویورک افشای اطلاعات مربوط به بازیگران تولید شده توسط هوش مصنوعی در تبلیغات را الزامی میکند و حقوق تبلیغات پس از مرگ را تقویت میکند ↗
نیویورک قوانینی را امضا کرد که بر اساس آنها تبلیغاتی که از «بازیگران مصنوعی» تولید شده توسط هوش مصنوعی استفاده میکنند، باید این موضوع را به وضوح برای مخاطبان ایالت فاش کنند - حتی اگر تبلیغکننده در جای دیگری مستقر باشد. اساساً این قانون این است: یک انسان جعلی را از مردم پنهان نکنید و آن را بازاریابی بنامید.
به طور جداگانه، ایالت قوانین مربوط به استفاده تجاری از تصاویر افراد متوفی، از جمله کپیهای دیجیتال، را تشدید کرد. راستش را بخواهید، کمی ناخوشایند است، اما در عین حال «به دورانی که هویت به کمربند ایمنی نیاز دارد، خوش آمدید»
سوالات متداول
بریتانیا با همکاری مایکروسافت چه برنامهای برای شناسایی دیپفیک آنلاین دارد؟
بریتانیا میگوید با مایکروسافت، دانشگاهیان و دیگر متخصصان همکاری خواهد کرد تا سیستمی بسازد که بتواند دیپفیک را به صورت آنلاین تشخیص دهد. این طرح همچنین شامل ایجاد روشی قابل اعتماد برای آزمایش این است که آیا ابزارهای تشخیص در خارج از آزمایشگاه نیز کارایی دارند یا خیر. تمرکز بر آسیبهایی است که بیشترین آسیب را میزنند: جعل هویت، کلاهبرداری و محتوای جنسی بدون رضایت.
آزمایشهای «درونمحیطی» برای آشکارسازهای دیپفیک چه تفاوتی با نسخههای نمایشی خواهد داشت؟
در کنار خودِ آشکارساز، بریتانیا بر روشی برای آزمایش ابزارهای تشخیص دیپفیک در شرایط واقعی تأکید دارد. در بسیاری از خطوط تولید، مدلها روی مجموعه دادههای جمعآوریشده قوی به نظر میرسند، اما وقتی قالب محتوا، فشردهسازی یا تاکتیکهای خصمانه تغییر میکنند، ضعیف میشوند. یک رویکرد ارزیابی ساختاریافته به مقایسه مداوم ابزارها کمک میکند و نشان میدهد که تشخیص در محیطهای آنلاین زنده کجا با شکست مواجه میشود.
آنتروپیک در کلود اوپوس ۴.۶ چه تغییری کرد و چرا محدودیت توکن اهمیت دارد؟
شرکت آنتروپیک میگوید Claude Opus 4.6 عملکرد را در حوزههایی مانند کدنویسی و امور مالی بهبود میبخشد و میتواند تا ۱ میلیون توکن از متن را مدیریت کند. این پنجره متن بزرگتر میتواند کار با اسناد طولانی یا پایگاههای کد پیچیده را بدون بارگذاری مجدد مداوم اطلاعات آسانتر کند. آنها همچنین از طریق Claude Code، «عاملها» را برجسته کردهاند، جایی که وظایف میتوانند بین دستیاران خودکار تقسیم شوند.
OpenAI "Frontier" چیست و چگونه در گردش کارهای سازمانی جای میگیرد؟
OpenAI «Frontier» را به عنوان یک سرویس متمرکز بر سازمان برای ساخت و مدیریت عاملهای هوش مصنوعی که کارهای خاصی مانند اشکالزدایی نرمافزار یا مدیریت گردشهای کاری را انجام میدهند، معرفی کرد. این سرویس به گونهای طراحی شده است که به زیرساختهای موجود شرکت متصل شود، نه اینکه به عنوان یک نقطه پایانی مدل مستقل عمل کند. OpenAI همچنین اعلام کرد که میتواند از عاملهای شخص ثالث پشتیبانی کند، که به معنای یک لایه کنترل برای هماهنگی سیستمهای عامل مختلف است.
بیانیه هوش مصنوعی ارتش چه میگوید و برای مدیریت هوش مصنوعی چه معنایی دارد؟
این اعلامیه غیرالزامآور توصیف شده و اصول استفاده از هوش مصنوعی در جنگ، از جمله مسئولیت انسانی، ساختارهای فرماندهی شفاف و آزمایش و ارزیابی جدی ریسک را مشخص میکند. رویترز گزارش داد که بسیاری از کشورها آن را امضا کردند، اما ایالات متحده و چین آن را امضا نکردند. برای مدیریت هوش مصنوعی، این عدم تمایل اهمیت دارد زیرا بزرگترین بازیگران را خارج از مجموعهای مشترک از هنجارهای اعلام شده قرار میدهد.
قوانین جدید نیویورک برای مجریان تولید شده توسط هوش مصنوعی در تبلیغات چه الزاماتی را تعیین میکند؟
نیویورک قوانینی را امضا کرد که تبلیغاتی که از «بازیگران مصنوعی» تولید شده توسط هوش مصنوعی استفاده میکنند را ملزم میکند تا این واقعیت را به وضوح برای مخاطبان در ایالت فاش کنند، حتی اگر تبلیغکننده در جای دیگری مستقر باشد. به طور جداگانه، ایالت حقوق تبلیغات پس از مرگ را در مورد استفاده تجاری از شباهتهای افراد متوفی، از جمله کپیهای دیجیتال، تقویت کرد. از نظر عملی، این امر، مدیریت هوش مصنوعی را به سمت برچسبگذاری واضحتر و کنترلهای سختگیرانهتر بر استفاده از هویت سوق میدهد.