اجلاس هوش مصنوعی پاریس رویکردهای متفاوت را برجسته میکند
اجلاس اخیر اقدام هوش مصنوعی در پاریس، اختلافات جهانی در مورد مدیریت هوش مصنوعی را برجسته کرد. نکته کلیدی، امتناع ایالات متحده و بریتانیا از امضای بیانیهای با هدف ترویج توسعه اخلاقی و پایدار هوش مصنوعی بود.
نگرانیهایی در مورد فقدان اقدامات حاکمیتی قابل اجرا در این اعلامیه و تأثیر بالقوه آن بر امنیت ملی مطرح شد. جی دی ونس، معاون رئیس جمهور ایالات متحده، بر رویکرد «اول آمریکا» تأکید کرد و هشدار داد که مقررات بیش از حد میتواند نوآوری را خفه کند. در همین حال، رهبران اروپایی و سایر رهبران بینالمللی همچنان به دنبال چارچوبهای جهانی هوش مصنوعی برای تضمین توسعه مسئولانه هستند.
اریک اشمیت از هوش مصنوعی متنباز برای مقابله با چین حمایت میکند
اریک اشمیت، مدیرعامل سابق گوگل، از کشورهای غربی خواسته است تا ابتکارات هوش مصنوعی متنباز را برای حفظ رقابت با پیشرفتهای سریع چین افزایش دهند. او به DeepSeek چین، یک مدل زبان بزرگ متنباز، به عنوان نمونهای از چگونگی دموکراتیزه کردن نوآوری اشاره کرد.
اشمیت هشدار داد که بسیاری از مدلهای پیشرو هوش مصنوعی در ایالات متحده همچنان متنباز هستند که میتواند مانع پیشرفت علمی شود. او یک رویکرد ترکیبی را پیشنهاد کرد که ترکیبی از مدلهای متنباز و متنباز است و تعادلی بین نوآوری و ایمنی ایجاد میکند. برای حمایت از این تلاش، اشمیت از سرمایهگذاری 10 میلیون دلاری در یک برنامه جدید علوم ایمنی هوش مصنوعی خبر داد.
اسکارلت جوهانسون علیه دیپفیک هوش مصنوعی صحبت میکند
اسکارلت جوهانسون، بازیگر هالیوود، پس از انتشار ویدئویی که به دروغ او را در حال محکوم کردن اظهارات یهودستیزانه کانیه وست نشان میداد، علناً سوءاستفاده از هوش مصنوعی را محکوم کرد. این ویدئو که نسخههای تولید شده توسط هوش مصنوعی از دیگر سلبریتیها را نیز نشان میداد، بدون رضایت او ساخته شده بود.
یوهانسون که در مورد حفاظت از حریم خصوصی و مبارزه با اطلاعات نادرست صحبت کرده است، از دولتها خواست تا اقدامات نظارتی قویتری علیه سوءاستفاده از هوش مصنوعی انجام دهند. او بر لزوم ایجاد چارچوبهای قانونی روشن برای جلوگیری از اطلاعات نادرست مبتنی بر هوش مصنوعی و محافظت از افراد در برابر جعل عمیق غیرمجاز تأکید کرد.
هوش مصنوعی و ظهور پورن انتقامی «جعلی و بیارزش»
نگرانیهای جدیدی در مورد فناوری «جعل ارزان» تولید شده توسط هوش مصنوعی پدید آمده است، که به کاربران اجازه میدهد تصاویر واقعی را به محتوای نامناسب یا صریح تبدیل کنند. برخلاف جعل عمیق سنتی، ابزارهای جعل ارزان در دسترستر هستند و حتی به کاربران غیرفنی نیز اجازه میدهند رسانههای دستکاریشده ایجاد کنند.
این امر باعث ایجاد ترس در مورد آزار و اذیت، انتقامجویی و سوءاستفاده از هوش مصنوعی برای اهداف مخرب شده است. قانونگذاران و گروههای مدافع حقوق بشر در حال تلاش برای ایجاد تدابیر حفاظتی و قانونی قویتر برای مهار سوءاستفاده روزافزون از هوش مصنوعی در آزار و اذیت دیجیتال هستند.