🧬 دیپمایند، آلفاژنوم را برای شناسایی عوامل ژنتیکی بیماریها راهاندازی کرد ↗
دیپمایند از آلفاژنوم رونمایی کرد، یک سیستم هوش مصنوعی که با هدف پیشبینی چگونگی تغییر تنظیم ژن توسط جهشهای DNA - اساساً زمان، مکان و میزان صدای فعال شدن ژنها - طراحی شده است. این سیستم میتواند بخشهای عظیمی از DNA را به طور همزمان اسکن کند، از جمله مناطق پراکنده غیر کدکننده که اغلب مانند ماده تاریک بیولوژیکی به نظر میرسند.
هدف کاملاً سرراست است: شناسایی سریعتر جهشهایی که واقعاً برای مواردی مانند خطر سرطان و بیماریهای ارثی پیچیده مهم هستند. اگر این روش طبق تبلیغات عمل کند، محققان زمان کمتری را صرف حدس زدن و زمان بیشتری را صرف آزمایش موارد صحیح میکنند - که بدیهی به نظر میرسد، اما تقریباً کل بازی همین است.
🧑💼 لیز کندال اذعان میکند که هوش مصنوعی به قیمت از دست رفتن مشاغل تمام خواهد شد ↗
وزیر فناوری بریتانیا آشکارا گفت که پذیرش هوش مصنوعی باعث از دست رفتن مشاغل خواهد شد - نه آن حس و حال همیشگی «همه چیز خوب خواهد شد، قول میدهم». او به اضطراب پیرامون نقشهای ورودی فارغالتحصیلان در حوزههایی مانند حقوق و امور مالی اشاره کرد و وانمود نکرد که عدد دقیقی وجود دارد که کسی بتواند ارائه دهد.
در عین حال، دولت به شدت به سمت سازگاری با این فناوری متمایل است: تلاشی بزرگ برای آموزش مهارتهای اولیه هوش مصنوعی به میلیونها کارگر، با هدف تبدیل بریتانیا به کشوری که سریعتر هوش مصنوعی را میپذیرد. این همان تنش کلاسیک است - بله، شغلها از بین میروند، بله، شغلها ظاهر میشوند، اما در این میانه اوضاع چندان روان نخواهد بود.
🗞️ بریتانیا گوگل را تحت فشار قرار میدهد تا به سایتها اجازه دهد از بررسیهای هوش مصنوعی انصراف دهند ↗
تنظیمکنندگان رقابت بریتانیا تغییراتی را پیشنهاد دادند که به ناشران اجازه میدهد بدون اینکه در رتبهبندیهای جستجوی عادی مجازات شوند، از استفاده از محتوای خود برای بررسیهای هوش مصنوعی گوگل - یا برای آموزش مدلهای هوش مصنوعی مستقل - خودداری کنند. این بخش «بدون مجازات» در اینجا کار زیادی انجام میدهد.
ایده این است که همزمان با تغییر نحوه کلیک (یا عدم کلیک) افراد توسط خلاصههای هوش مصنوعی، قدرت دوباره متوازن شود. پاسخ گوگل اساساً این بود: رفتار جستجو در حال تغییر است، ما در حال بررسی کنترلهای بیشتر هستیم، اما محصول را به یک نسخه تکهتکه و ناشیانه از خودش تبدیل نکنید... که منصفانه است، اما در عین حال راحت هم هست.
🛡️ ایمن نگه داشتن دادههای شما هنگامی که یک عامل هوش مصنوعی روی یک لینک کلیک میکند ↗
OpenAI یک ریسک امنیتی خاص عامل را شرح داد: استخراج دادههای مبتنی بر URL - جایی که یک مهاجم، هوش مصنوعی را فریب میدهد تا URLای را بارگذاری کند که بیسروصدا اطلاعات خصوصی را در رشته پرسوجو جاسازی میکند. حتی اگر مدل هرگز راز را «نگوید»، خود درخواست میتواند آن را فاش کند. زننده و به طرز خلع سلاحکنندهای از فناوری سطح پایین.
راهکار مقابله با آنها یک قانون ساده با لبههای تیز است: عوامل باید فقط URLهایی را که از قبل عمومی هستند و از طریق یک فهرست وب مستقل وجود آنها مشخص شده است، به صورت خودکار دریافت کنند. اگر عمومی بودن یک لینک تأیید نشود، سیستم باید کند شود و با هشدارهایی - اصطکاک عمدی، اما از نوع خوب - کاربر را دوباره کنترل کند.
🇪🇺 فصل بعدی هوش مصنوعی در اتحادیه اروپا ↗
OpenAI طرحی با محوریت اتحادیه اروپا منتشر کرد که مشکل «افزایش بیش از حد قابلیتها» را مطرح میکند - مدلها میتوانند کارهای بیشتری نسبت به آنچه مردم و کسبوکارها در حال حاضر از آنها استفاده میکنند، انجام دهند و این شکاف، دستاوردهای ناهموار را در سراسر کشورها به خطر میاندازد. مثل این است که یک ماشین مسابقه داشته باشید و فقط آن را تا مغازه کنار خیابان برانید... با این تفاوت که مغازه کنار خیابان، کل اقتصاد شماست.
در کنار این لفاظیها، بخشهای ملموسی هم وجود دارد: برنامهای با هدف آموزش مهارتهای هوش مصنوعی به هزاران شرکت کوچک و متوسط اروپایی، کمکهزینهای مرتبط با تحقیقات ایمنی و رفاه جوانان، و وضعیت گسترشیافتهی «همکاری با دولتها». بخشی از این یادداشت، یادداشت سیاستگذاری و بخشی دیگر، کمپین پذیرش است - و بله، این دو در هم آمیختهاند.
🔐 ریسک هوش مصنوعی با حاکمیت سایبری تلاقی میکند: پیشنویس پروفایل هوش مصنوعی سایبری NIST ↗
پیشنویس جدیدی از NIST (از طریق تحلیل نوشتهی یک شرکت حقوقی) بر این موضوع تمرکز دارد که سازمانها چگونه باید هوش مصنوعی را در حاکمیت سایبری بگنجانند - هم امنیت سیستمهای هوش مصنوعی و هم استفاده از هوش مصنوعی برای بهبود دفاع سایبری. روی کاغذ داوطلبانه است، اما «داوطلبانه» بودن آن به مرور زمان به امری مورد انتظار تبدیل میشود.
گروههای پیشنویس روی موضوعاتی مانند ایمنسازی اجزای هوش مصنوعی و استقرار دفاع مبتنی بر هوش مصنوعی - از جمله ملاحظات زنجیره تأمین و اتوماسیون عاملمانند در گردشهای کاری پاسخگویی - کار میکنند. رویکرد این است: با هوش مصنوعی هم به عنوان یک سطح حمله جدید و هم به عنوان مجموعهای جدید از ابزارها رفتار کنید و وانمود نکنید که این دو، یکدیگر را خنثی میکنند.
سوالات متداول
آلفاژنوم دیپمایند چیست و چه مشکلی را حل میکند؟
AlphaGenome یک سیستم هوش مصنوعی است که به گفتهی DeepMind میتواند پیشبینی کند که جهشهای DNA چگونه بر تنظیم ژن تأثیر میگذارند - چه زمانی ژنها فعال میشوند، کجا این اتفاق میافتد و با چه شدتی. این سیستم برای اسکن همزمان بخشهای بسیار بزرگی از DNA، از جمله مناطق غیرکدکننده که تفسیر آنها بسیار دشوار است، ساخته شده است. هدف این است که به محققان کمک کند تا مشخص کنند کدام جهشها به احتمال زیاد باعث بیماری میشوند، بنابراین آزمایشهای آزمایشگاهی میتوانند بر روی امیدوارکنندهترین سرنخها تمرکز کنند.
چگونه AlphaGenome میتواند به محققان کمک کند تا محرکهای ژنتیکی بیماری را سریعتر پیدا کنند؟
در بسیاری از گردشهای کاری ژنتیک، تنگنا از کوچک کردن فهرستهای عظیم متغیرها به تعداد کمی که به طور معقول فعالیت ژن را تغییر میدهند، ناشی میشود. وعده AlphaGenome این است که با پیشبینی اینکه چگونه جهشهای خاص ممکن است تنظیم را در توالیهای طولانی DNA تغییر دهند، این حدس و گمان را کاهش دهد. اگر این پیشبینیها درست باشند، تیمها میتوانند آزمایشها را در مورد متغیرهایی که به احتمال زیاد با خطر سرطان یا شرایط ارثی پیچیده مرتبط هستند، اولویتبندی کنند و زمان کمتری را صرف بنبستها کنند.
آیا پذیرش هوش مصنوعی واقعاً به قیمت از دست رفتن مشاغل در بریتانیا تمام میشود و کدام نقشها بیشتر در معرض خطر هستند؟
وزیر فناوری بریتانیا، لیز کندال، گفت که پذیرش هوش مصنوعی باعث از دست رفتن مشاغل خواهد شد و نگرانی پیرامون نقشهای ورودی فارغالتحصیلان را برجسته کرد. او به طور خاص به حوزههایی مانند حقوق و امور مالی اشاره کرد، جایی که وظایف اولیه شغلی ممکن است بیشتر قابل خودکارسازی باشند. در عین حال، دولت بر سازگاری از طریق آموزش در مقیاس بزرگ در مهارتهای اساسی هوش مصنوعی تأکید دارد و اذعان دارد که حتی اگر نقشهای جدیدی پدیدار شوند، این گذار ممکن است ناهموار به نظر برسد.
آیا ناشران بریتانیایی میتوانند بدون از دست دادن رتبهبندی جستجو، از بررسیهای هوش مصنوعی گوگل انصراف دهند؟
تنظیمکنندگان رقابت در بریتانیا تغییراتی را پیشنهاد دادهاند که به ناشران اجازه میدهد بدون جریمه شدن در رتبهبندیهای جستجوی استاندارد، از استفاده از محتوای خود برای بررسیهای هوش مصنوعی گوگل - یا برای آموزش مدلهای مستقل هوش مصنوعی - خودداری کنند. هدف، ایجاد توازن مجدد در قدرت است، زیرا خلاصههای هوش مصنوعی، رفتار کلیک کردن را تغییر میدهند. گوگل اعلام کرده است که در حال بررسی کنترلهای بیشتر است، در حالی که نسبت به یک تجربه جستجوی پراکنده هشدار میدهد.
چگونه یک عامل هوش مصنوعی میتواند تنها با کلیک روی یک لینک، دادههای خصوصی را فاش کند؟
OpenAI یک خطر استخراج داده مبتنی بر URL را شرح داد که در آن یک مهاجم، یک عامل هوش مصنوعی را وادار به دریافت لینکی میکند که بیسروصدا اطلاعات حساس را در رشته پرسوجو جاسازی میکند. حتی اگر مدل هرگز رمز را در خروجی خود تکرار نکند، خود درخواست میتواند آن را منتقل کند. یک راهکار رایج برای کاهش این خطر، افزودن «اصطکاک عمدی» مانند هشدارها و درخواست تأیید کاربر در زمانی است که یک لینک به طور مستقل به عنوان عمومی تأیید نشده باشد.
پیشنویس پروفایل هوش مصنوعی سایبری NIST چیست و چگونه حاکمیت سایبری را تغییر میدهد؟
پیشنویس نمایه NIST (که از طریق یک تحلیل حقوقی مورد بحث قرار گرفته است) هوش مصنوعی را هم به عنوان چیزی برای ایمنسازی و هم چیزی برای استفاده در دفاع سایبری تعریف میکند. این نمایه، کارها را در قالب موضوعاتی مانند ایمنسازی اجزای هوش مصنوعی، پرداختن به خطرات زنجیره تأمین و استقرار دفاعهای مبتنی بر هوش مصنوعی - از جمله گردشهای کاری واکنش خودکارتر و عاملمانند - دستهبندی میکند. اگرچه در اسم داوطلبانه است، اما چارچوبهایی مانند این اغلب به انتظارات بالفعل تبدیل میشوند و سازمانها را وادار میکنند تا رسماً هوش مصنوعی را در حاکمیت و کنترلها بگنجانند.