اخبار هوش مصنوعی، ۲۸ ژانویه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۲۸ ژانویه ۲۰۲۶

🧬 دیپ‌مایند، آلفاژنوم را برای شناسایی عوامل ژنتیکی بیماری‌ها راه‌اندازی کرد

دیپ‌مایند از آلفاژنوم رونمایی کرد، یک سیستم هوش مصنوعی که با هدف پیش‌بینی چگونگی تغییر تنظیم ژن توسط جهش‌های DNA - اساساً زمان، مکان و میزان صدای فعال شدن ژن‌ها - طراحی شده است. این سیستم می‌تواند بخش‌های عظیمی از DNA را به طور همزمان اسکن کند، از جمله مناطق پراکنده غیر کدکننده که اغلب مانند ماده تاریک بیولوژیکی به نظر می‌رسند.

هدف کاملاً سرراست است: شناسایی سریع‌تر جهش‌هایی که واقعاً برای مواردی مانند خطر سرطان و بیماری‌های ارثی پیچیده مهم هستند. اگر این روش طبق تبلیغات عمل کند، محققان زمان کمتری را صرف حدس زدن و زمان بیشتری را صرف آزمایش موارد صحیح می‌کنند - که بدیهی به نظر می‌رسد، اما تقریباً کل بازی همین است.

🧑💼 لیز کندال اذعان می‌کند که هوش مصنوعی به قیمت از دست رفتن مشاغل تمام خواهد شد

وزیر فناوری بریتانیا آشکارا گفت که پذیرش هوش مصنوعی باعث از دست رفتن مشاغل خواهد شد - نه آن حس و حال همیشگی «همه چیز خوب خواهد شد، قول می‌دهم». او به اضطراب پیرامون نقش‌های ورودی فارغ‌التحصیلان در حوزه‌هایی مانند حقوق و امور مالی اشاره کرد و وانمود نکرد که عدد دقیقی وجود دارد که کسی بتواند ارائه دهد.

در عین حال، دولت به شدت به سمت سازگاری با این فناوری متمایل است: تلاشی بزرگ برای آموزش مهارت‌های اولیه هوش مصنوعی به میلیون‌ها کارگر، با هدف تبدیل بریتانیا به کشوری که سریع‌تر هوش مصنوعی را می‌پذیرد. این همان تنش کلاسیک است - بله، شغل‌ها از بین می‌روند، بله، شغل‌ها ظاهر می‌شوند، اما در این میانه اوضاع چندان روان نخواهد بود.

🗞️ بریتانیا گوگل را تحت فشار قرار می‌دهد تا به سایت‌ها اجازه دهد از بررسی‌های هوش مصنوعی انصراف دهند

تنظیم‌کنندگان رقابت بریتانیا تغییراتی را پیشنهاد دادند که به ناشران اجازه می‌دهد بدون اینکه در رتبه‌بندی‌های جستجوی عادی مجازات شوند، از استفاده از محتوای خود برای بررسی‌های هوش مصنوعی گوگل - یا برای آموزش مدل‌های هوش مصنوعی مستقل - خودداری کنند. این بخش «بدون مجازات» در اینجا کار زیادی انجام می‌دهد.

ایده این است که همزمان با تغییر نحوه کلیک (یا عدم کلیک) افراد توسط خلاصه‌های هوش مصنوعی، قدرت دوباره متوازن شود. پاسخ گوگل اساساً این بود: رفتار جستجو در حال تغییر است، ما در حال بررسی کنترل‌های بیشتر هستیم، اما محصول را به یک نسخه تکه‌تکه و ناشیانه از خودش تبدیل نکنید... که منصفانه است، اما در عین حال راحت هم هست.

🛡️ ایمن نگه داشتن داده‌های شما هنگامی که یک عامل هوش مصنوعی روی یک لینک کلیک می‌کند

OpenAI یک ریسک امنیتی خاص عامل را شرح داد: استخراج داده‌های مبتنی بر URL - جایی که یک مهاجم، هوش مصنوعی را فریب می‌دهد تا URL‌ای را بارگذاری کند که بی‌سروصدا اطلاعات خصوصی را در رشته پرس‌وجو جاسازی می‌کند. حتی اگر مدل هرگز راز را «نگوید»، خود درخواست می‌تواند آن را فاش کند. زننده و به طرز خلع سلاح‌کننده‌ای از فناوری سطح پایین.

راهکار مقابله با آنها یک قانون ساده با لبه‌های تیز است: عوامل باید فقط URLهایی را که از قبل عمومی هستند و از طریق یک فهرست وب مستقل وجود آنها مشخص شده است، به صورت خودکار دریافت کنند. اگر عمومی بودن یک لینک تأیید نشود، سیستم باید کند شود و با هشدارهایی - اصطکاک عمدی، اما از نوع خوب - کاربر را دوباره کنترل کند.

🇪🇺 فصل بعدی هوش مصنوعی در اتحادیه اروپا

OpenAI طرحی با محوریت اتحادیه اروپا منتشر کرد که مشکل «افزایش بیش از حد قابلیت‌ها» را مطرح می‌کند - مدل‌ها می‌توانند کارهای بیشتری نسبت به آنچه مردم و کسب‌وکارها در حال حاضر از آنها استفاده می‌کنند، انجام دهند و این شکاف، دستاوردهای ناهموار را در سراسر کشورها به خطر می‌اندازد. مثل این است که یک ماشین مسابقه داشته باشید و فقط آن را تا مغازه کنار خیابان برانید... با این تفاوت که مغازه کنار خیابان، کل اقتصاد شماست.

در کنار این لفاظی‌ها، بخش‌های ملموسی هم وجود دارد: برنامه‌ای با هدف آموزش مهارت‌های هوش مصنوعی به هزاران شرکت کوچک و متوسط ​​اروپایی، کمک‌هزینه‌ای مرتبط با تحقیقات ایمنی و رفاه جوانان، و وضعیت گسترش‌یافته‌ی «همکاری با دولت‌ها». بخشی از این یادداشت، یادداشت سیاست‌گذاری و بخشی دیگر، کمپین پذیرش است - و بله، این دو در هم آمیخته‌اند.

🔐 ریسک هوش مصنوعی با حاکمیت سایبری تلاقی می‌کند: پیش‌نویس پروفایل هوش مصنوعی سایبری NIST

پیش‌نویس جدیدی از NIST (از طریق تحلیل نوشته‌ی یک شرکت حقوقی) بر این موضوع تمرکز دارد که سازمان‌ها چگونه باید هوش مصنوعی را در حاکمیت سایبری بگنجانند - هم امنیت سیستم‌های هوش مصنوعی و هم استفاده از هوش مصنوعی برای بهبود دفاع سایبری. روی کاغذ داوطلبانه است، اما «داوطلبانه» بودن آن به مرور زمان به امری مورد انتظار تبدیل می‌شود.

گروه‌های پیش‌نویس روی موضوعاتی مانند ایمن‌سازی اجزای هوش مصنوعی و استقرار دفاع مبتنی بر هوش مصنوعی - از جمله ملاحظات زنجیره تأمین و اتوماسیون عامل‌مانند در گردش‌های کاری پاسخگویی - کار می‌کنند. رویکرد این است: با هوش مصنوعی هم به عنوان یک سطح حمله جدید و هم به عنوان مجموعه‌ای جدید از ابزارها رفتار کنید و وانمود نکنید که این دو، یکدیگر را خنثی می‌کنند.

سوالات متداول

آلفاژنوم دیپ‌مایند چیست و چه مشکلی را حل می‌کند؟

AlphaGenome یک سیستم هوش مصنوعی است که به گفته‌ی DeepMind می‌تواند پیش‌بینی کند که جهش‌های DNA چگونه بر تنظیم ژن تأثیر می‌گذارند - چه زمانی ژن‌ها فعال می‌شوند، کجا این اتفاق می‌افتد و با چه شدتی. این سیستم برای اسکن همزمان بخش‌های بسیار بزرگی از DNA، از جمله مناطق غیرکدکننده که تفسیر آنها بسیار دشوار است، ساخته شده است. هدف این است که به محققان کمک کند تا مشخص کنند کدام جهش‌ها به احتمال زیاد باعث بیماری می‌شوند، بنابراین آزمایش‌های آزمایشگاهی می‌توانند بر روی امیدوارکننده‌ترین سرنخ‌ها تمرکز کنند.

چگونه AlphaGenome می‌تواند به محققان کمک کند تا محرک‌های ژنتیکی بیماری را سریع‌تر پیدا کنند؟

در بسیاری از گردش‌های کاری ژنتیک، تنگنا از کوچک کردن فهرست‌های عظیم متغیرها به تعداد کمی که به طور معقول فعالیت ژن را تغییر می‌دهند، ناشی می‌شود. وعده AlphaGenome این است که با پیش‌بینی اینکه چگونه جهش‌های خاص ممکن است تنظیم را در توالی‌های طولانی DNA تغییر دهند، این حدس و گمان را کاهش دهد. اگر این پیش‌بینی‌ها درست باشند، تیم‌ها می‌توانند آزمایش‌ها را در مورد متغیرهایی که به احتمال زیاد با خطر سرطان یا شرایط ارثی پیچیده مرتبط هستند، اولویت‌بندی کنند و زمان کمتری را صرف بن‌بست‌ها کنند.

آیا پذیرش هوش مصنوعی واقعاً به قیمت از دست رفتن مشاغل در بریتانیا تمام می‌شود و کدام نقش‌ها بیشتر در معرض خطر هستند؟

وزیر فناوری بریتانیا، لیز کندال، گفت که پذیرش هوش مصنوعی باعث از دست رفتن مشاغل خواهد شد و نگرانی پیرامون نقش‌های ورودی فارغ‌التحصیلان را برجسته کرد. او به طور خاص به حوزه‌هایی مانند حقوق و امور مالی اشاره کرد، جایی که وظایف اولیه شغلی ممکن است بیشتر قابل خودکارسازی باشند. در عین حال، دولت بر سازگاری از طریق آموزش در مقیاس بزرگ در مهارت‌های اساسی هوش مصنوعی تأکید دارد و اذعان دارد که حتی اگر نقش‌های جدیدی پدیدار شوند، این گذار ممکن است ناهموار به نظر برسد.

آیا ناشران بریتانیایی می‌توانند بدون از دست دادن رتبه‌بندی جستجو، از بررسی‌های هوش مصنوعی گوگل انصراف دهند؟

تنظیم‌کنندگان رقابت در بریتانیا تغییراتی را پیشنهاد داده‌اند که به ناشران اجازه می‌دهد بدون جریمه شدن در رتبه‌بندی‌های جستجوی استاندارد، از استفاده از محتوای خود برای بررسی‌های هوش مصنوعی گوگل - یا برای آموزش مدل‌های مستقل هوش مصنوعی - خودداری کنند. هدف، ایجاد توازن مجدد در قدرت است، زیرا خلاصه‌های هوش مصنوعی، رفتار کلیک کردن را تغییر می‌دهند. گوگل اعلام کرده است که در حال بررسی کنترل‌های بیشتر است، در حالی که نسبت به یک تجربه جستجوی پراکنده هشدار می‌دهد.

چگونه یک عامل هوش مصنوعی می‌تواند تنها با کلیک روی یک لینک، داده‌های خصوصی را فاش کند؟

OpenAI یک خطر استخراج داده مبتنی بر URL را شرح داد که در آن یک مهاجم، یک عامل هوش مصنوعی را وادار به دریافت لینکی می‌کند که بی‌سروصدا اطلاعات حساس را در رشته پرس‌وجو جاسازی می‌کند. حتی اگر مدل هرگز رمز را در خروجی خود تکرار نکند، خود درخواست می‌تواند آن را منتقل کند. یک راهکار رایج برای کاهش این خطر، افزودن «اصطکاک عمدی» مانند هشدارها و درخواست تأیید کاربر در زمانی است که یک لینک به طور مستقل به عنوان عمومی تأیید نشده باشد.

پیش‌نویس پروفایل هوش مصنوعی سایبری NIST چیست و چگونه حاکمیت سایبری را تغییر می‌دهد؟

پیش‌نویس نمایه NIST (که از طریق یک تحلیل حقوقی مورد بحث قرار گرفته است) هوش مصنوعی را هم به عنوان چیزی برای ایمن‌سازی و هم چیزی برای استفاده در دفاع سایبری تعریف می‌کند. این نمایه، کارها را در قالب موضوعاتی مانند ایمن‌سازی اجزای هوش مصنوعی، پرداختن به خطرات زنجیره تأمین و استقرار دفاع‌های مبتنی بر هوش مصنوعی - از جمله گردش‌های کاری واکنش خودکارتر و عامل‌مانند - دسته‌بندی می‌کند. اگرچه در اسم داوطلبانه است، اما چارچوب‌هایی مانند این اغلب به انتظارات بالفعل تبدیل می‌شوند و سازمان‌ها را وادار می‌کنند تا رسماً هوش مصنوعی را در حاکمیت و کنترل‌ها بگنجانند.

اخبار دیروز هوش مصنوعی: ۲۷ ژانویه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ