اندونزی دسترسی به چتبات هوش مصنوعی ماسک، گروک، را به دلیل تصاویر دیپفیک مسدود کرد ↗
اندونزی پس از آنکه Grok برای تولید دیپفیکهای جنسی بدون رضایت - از جمله تصاویری که زنان و کودکان را هدف قرار میداد - استفاده شد، موقتاً آن را مسدود کرد. دولت آن را به عنوان یک مسئله حقوق بشری و امنیت عمومی مطرح کرد، نه یک مشکل جزئی فناوری.
نقطه فشار صریح است: اگر ابزاری بتواند افراد واقعی را به دستور «لخت» کند، بار اثبات [مسئله] برعکس میشود. پلتفرمها باید نشان دهند که میتوانند از این امر جلوگیری کنند، نه اینکه فقط متعهد شوند که به آن فکر میکنند.
ایلان ماسک میگوید بریتانیا میخواهد آزادی بیان را سرکوب کند، زیرا X با ممنوعیت احتمالی روبروست ↗
وزرای بریتانیا پس از آنکه از گروک برای تولید تصاویر مستهجن بدون رضایت استفاده شد، آشکارا جریمهها - و حتی مسدود کردن X - را مطرح کردند. ماسک با چارچوب آشنای آزادی بیان به مقابله برخاست... اما وضعیت قانونی در بریتانیا از «باشگاه مناظره» به سمت «مهلت انطباق» در حال تغییر است
به آفکام (سازمان تنظیم مقررات ارتباطات) توصیه شده است که سریعاً اقدام کند، و قانونگذاران نیز به همین الگوی شوم اشاره میکنند: وقتی تصاویر پخش میشوند، آسیبها بیصبرانه منتظر بهروزرسانی سیاستها نمیمانند.
🧑💻 طبق گزارشها، OpenAI از پیمانکاران میخواهد که نمونههای واقعی از کارهای قبلی خود را آپلود کنند ↗
طبق گزارشها، OpenAI به همراه یک شریک داده آموزشی، از پیمانکاران میخواهد تا آثار واقعی کار از مشاغل گذشته (و فعلی) - اسناد فکری، صفحات گسترده، عرشهها، مخازن - را بارگذاری کنند. هدف اعلام شده، ارزیابی و بهبود عوامل هوش مصنوعی در وظایف اداری است.
نکتهی مبهم واضح و کمی سورئال است: به پیمانکاران گفته میشود که خودشان اطلاعات حساس را پاک کنند. این اعتماد زیادی است که باید به یک خط لولهی پرسرعت کرد - مثل این است که از کسی بخواهید با محبت و با استفاده از دستکش فر بمبی را خنثی کند.
🗂️ OpenAI از پیمانکاران میخواهد تا کارهای قبلی خود را آپلود کنند تا عملکرد عوامل هوش مصنوعی را ارزیابی کنند ↗
یک گزارش جداگانه به بررسی همین تنظیمات و دلیل اینکه چرا وکلای حریم خصوصی و مالکیت معنوی را نگران میکند، میپردازد. حتی اگر همه با حسن نیت عمل کنند، وقتی با اسناد واقعی شرکتها سر و کار دارید، «حذف موارد محرمانه» یک دستورالعمل بیمعنی است.
این همچنین به استراتژی بزرگتری اشاره دارد: عوامل هوش مصنوعی دیگر فقط کمک خلبانهای پرحرف نیستند - آنها آموزش میبینند تا واقعیت درهمتنیده و چندفایلی کار واقعی را تقلید کنند. عملی، بله. همچنین کمی... اوه.
🏦 همکاری جهانی آلیانز و آنتروپیک فورج برای پیشبرد هوش مصنوعی مسئولانه در بیمه ↗
آلیانز و آنتروپیک از یک همکاری جهانی با تمرکز بر سه مسیر خبر دادند: بهرهوری کارکنان، اتوماسیون عملیاتی از طریق هوش مصنوعی عاملمحور، و انطباق با قوانین بر اساس طراحی. بیمه، کاغذبازی است، بنابراین «عاملمحور» در اینجا اساساً به معنای خودکارسازی گردشهای کاری پیچیده بدون از دست دادن ردپای حسابرسی است.
حال و هوای این کار این است: اتوماسیون جذاب را انجام دهید، اما رسیدها را نگه دارید. در صنایع تحت نظارت، این تنها راهی است که این کار بدون تبدیل شدن به یک دردسر بزرگ، گسترش پیدا کند.
🕵️♂️ بیانیهای در پاسخ به Grok AI در X ↗
نهاد ناظر بر حفاظت از دادههای بریتانیا میگوید با توجه به نگرانیهای پیرامون محتوای تولید شده توسط Grok، با X و xAI تماس گرفته و خواستار شفافسازی در مورد نحوهی مدیریت دادههای شخصی و حفاظت از حقوق افراد شده است. مسئله فقط «نظارت بر محتوا» نیست - بلکه این است که آیا دادههای افراد به طور قانونی پردازش میشوند و آیا حقوق آنها محافظت میشود یا خیر.
این نوعی اقدام نظارتی است که مودبانه به نظر میرسد، اما اگر پاسخها مبهم یا طفرهآمیز یا هر دو باشند، بیسروصدا بسیار جدی میشود.
سوالات متداول
چرا اندونزی دسترسی به Grok AI را مسدود کرد؟
اندونزی پس از آنکه گزارش شد Grok برای تولید دیپفیکهای جنسی بدون رضایت، از جمله تصاویری که زنان و کودکان را هدف قرار میدهند، استفاده میشود، موقتاً آن را مسدود کرد. مقامات این اقدام را به عنوان یک مسئله حقوق بشر و امنیت عمومی مطرح کردند، نه یک اختلاف فنی جزئی. پیام اصلی این است که وقتی ابزارها میتوانند آسیب فوری و جبرانناپذیری ایجاد کنند، جمله «بعداً آن را درست میکنیم» کافی نیست.
بریتانیا پس از انتشار ویدیوهای دیپفیک تولید شده توسط گروک در X، چه چیزی را در نظر دارد؟
وزرای بریتانیا علناً در مورد جریمهها و حتی احتمال مسدود کردن X پس از استفاده از Grok برای ایجاد تصاویر صریح جنسی بدون رضایت، بحث کردند. لحن سیاسی و نظارتی به سمت انطباق قابل اجرا تغییر میکند، نه بحثهای بیپایان. نکتهای که قانونگذاران مدام به آن برمیگردند، زمانبندی است: پس از انتشار تصاویر، قربانیان مدتها قبل از اینکه پلتفرمها سیاستهای بهروز شده را منتشر کنند، با آسیب مواجه میشوند.
منظور از اینکه نهادهای نظارتی «بار اثبات را برای ابزارهای تصویربرداری هوش مصنوعی برمیگردانند» چیست؟
ایده «بار اثبات معکوس» این است که پلتفرمها ممکن است نیاز داشته باشند نشان دهند که میتوانند از آسیبهای خاص - مانند تولید تصاویر «درآوردن» بدون رضایت - جلوگیری کنند، نه اینکه صرفاً وعدههای حفاظتی بدهند. در عمل، این امر شرکتها را به سمت کنترلهای قابل اثبات، اجرای قابل اندازهگیری و مدیریت واضح شکست سوق میدهد. همچنین نشان میدهد که «نیت» کمتر از نتایج ملموس و پیشگیریهای قابل تکرار اهمیت دارد.
پلتفرمها چگونه میتوانند خطر دیپفیکهای بدون رضایت تولید شده توسط هوش مصنوعی را کاهش دهند؟
یک رویکرد رایج، پیشگیری لایهای است: محدود کردن پیامها و خروجیهای مرتبط با افراد واقعی، مسدود کردن درخواستهای «لباس درآوردن» و شناسایی و متوقف کردن تلاشها برای تولید تصاویر جنسی بدون رضایت. بسیاری از خطوط تولید، محدودیتهای نرخ، نظارت قویتر بر هویت و سوءاستفاده و گردشهای کاری سریع حذف پس از انتشار محتوا را اضافه میکنند. هدف فقط زبان سیاست نیست، بلکه ابزاری است که در برابر استفاده خصمانه مقاومت میکند.
چرا آپلود اسناد کاری واقعی توسط پیمانکاران OpenAI نگرانکننده است؟
گزارشها حاکی از آن است که OpenAI (به همراه یک شریک داده آموزشی) از پیمانکاران میخواهد تا مصنوعات کاری واقعی - اسناد، صفحات گسترده، عرشهها و مخازن - را برای ارزیابی و بهبود عوامل هوش مصنوعی وظایف اداری بارگذاری کنند. نگرانی این است که به پیمانکاران گفته شده است که خودشان جزئیات حساس را حذف کنند، که میتواند مستعد خطا باشد. وکلای حریم خصوصی و IP نگرانند که این دستورالعمل «حذف موارد محرمانه» برای مواد واقعی شرکتها بسیار مبهم باشد.
اهمیت همکاری آلیانز با آنتروپیک در زمینه «هوش مصنوعی عاملدار» در بیمه چیست؟
آلیانز و آنتروپیک یک همکاری جهانی را توصیف کردند که بر بهرهوری کارکنان، اتوماسیون عملیاتی با استفاده از هوش مصنوعی عاملمحور و انطباق با طراحی متمرکز است. گردشهای کاری بیمه پیچیده و به شدت تنظیمشده هستند، بنابراین «عاملمحور» اغلب به معنای خودکارسازی فرآیندهای چند مرحلهای بدون از دست دادن پاسخگویی است. تأکید بر مسیرهای حسابرسی و «نگهداری رسیدها» نشاندهنده یک واقعیت عملی است: اتوماسیون تنها زمانی در صنایع تنظیمشده مقیاسپذیر است که قابل بازرسی و دفاع باقی بماند.