اخبار هوش مصنوعی، ۱۵ فوریه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۱۵ فوریه ۲۰۲۶

🦞 استاینبرگر، بنیانگذار OpenClaw، به OpenAI پیوست و ربات متن‌باز به بنیان آن تبدیل شد

پیتر استاینبرگر به OpenAI می‌رود تا «عامل‌های شخصی» را پیش ببرد، در حالی که خود OpenClaw در یک بنیاد قرار می‌گیرد تا متن‌باز (و پشتیبانی‌شده) باقی بماند. این جدایی... کمی هوشمندانه است - سازنده را استخدام کنید، پروژه را عمومی نگه دارید.

طرح OpenClaw به طرز شگفت‌انگیزی کاربردی است: اولویت‌بندی ایمیل‌ها، کارهای اداری بیمه، بررسی پرواز، وظایف آزاردهنده‌ی مدیریت زندگی. همچنین در GitHub بسیار محبوب شده است و این محبوبیت، نگرانی‌های امنیتی را به همراه داشته است، به خصوص اگر افراد آن را با بی‌دقتی نصب کنند.

🪖 پنتاگون از مخالفت‌های آنتروپیک بر سر استفاده ارتش از مدل هوش مصنوعی کلود «خسته» شده و ممکن است روابط خود را قطع کند

دعوای اصلی: پنتاگون خواهان دسترسی گسترده و «برای تمام مقاصد قانونی» است، و شرکت آنتروپیک هنوز در تلاش است تا محدودیت‌های سفت و سختی را در مورد سلاح‌های کاملاً خودمختار و نظارت گسترده حفظ کند. این نوع اختلاف‌نظر تا زمانی که کسی نگوید «ما ممکن است شما را جایگزین کنیم» فلسفی به نظر می‌رسد

یک نکته‌ی دست کم گرفته شده - مقامات نمی‌خواهند این مدل ناگهان جریان‌های کاری را در میانه راه مسدود کند، و نمی‌خواهند برای همیشه در مورد موارد حاشیه‌ای مذاکره کنند (منصفانه است... اما خب، همینطور هم هست). اینجا واقعاً یک تنش «چه کسی کلیدها را در دست دارد» وجود دارد، و این یک موضوع نامحسوس نیست.

🧠 مدل ساخت استارتاپ برای پیش‌بینی رفتار انسان

شرکت سیمایل (Simile) یک دور جذب سرمایه ۱۰۰ میلیون دلاری را برای ساخت یک مدل «یادگیری محدود» با هدف پیش‌بینی اقدامات احتمالی افراد - از جمله به طور خاص، پیش‌بینی سوالات احتمالی در مواردی مانند تماس‌های درآمدی - جذب کرد. هدف محدود، جاه‌طلبی بزرگ، ترکیبی کمی وهم‌آور.

این رویکرد بر مصاحبه با افراد واقعی به علاوه داده‌های تحقیقات رفتاری تکیه دارد، سپس شبیه‌سازی‌هایی را با عوامل هوش مصنوعی اجرا می‌کند که به منظور انعکاس ترجیحات واقعی طراحی شده‌اند. این مانند ساختن یک مدل آب و هوایی برای تصمیمات انسانی است... که تا زمانی که غیرممکن به نظر نمی‌رسد، غیرممکن به نظر می‌رسد.

🧑⚖️ خبر فوری: کاخ سفید به نماینده مجلس یوتا فشار می‌آورد تا لایحه شفافیت هوش مصنوعی را لغو کند

یک طرح شفافیت هوش مصنوعی در سطح ایالتی در یوتا، مستقیماً از سوی کاخ سفید مورد انتقاد قرار گرفته است و مقامات از حامی این لایحه می‌خواهند که آن را به جریان نیندازد. چارچوب این لایحه کاملاً در مورد شفافیت و ایمنی کودکان است - که بحث در مورد آن از نظر ظاهری دشوار است.

اما دعوای بزرگتر، دعوای صلاحیت قضایی است: چه کسی می‌تواند قوانین را تعیین کند، ایالت‌ها یا دولت فدرال. و بله، این یک دعوای لفظی است - مثل اینکه دو نفر یک فرمان را گرفته باشند و اصرار داشته باشند که آنها آرام هستند.

🎬 پس از تهدید دیزنی، بایت‌دنس متعهد شد که از استفاده غیرمجاز از IP در ابزار ویدیویی هوش مصنوعی جلوگیری کند

دیزنی دستور توقف استفاده از مولد ویدیوی هوش مصنوعی ByteDance را صادر کرد و ByteDance می‌گوید که در حال تقویت تدابیر حفاظتی برای جلوگیری از استفاده غیرمجاز از مالکیت معنوی و تصاویر است. ظاهراً شکایت این است که این ابزار می‌تواند شخصیت‌های آشنای فرنچایز را طوری نمایش دهد که انگار فقط... استیکرهای عمومی هستند.

این همان برخوردی است که همه پیش‌بینی می‌کردند: ابزارهای ویدیویی هوش مصنوعیِ ویروسی به سرعت در حال پیشرفت هستند، استودیوها به سمت طرح دعوی پیش می‌روند و عبارت «ما اقدامات حفاظتی اضافه خواهیم کرد» به زبان پیش‌فرض عذرخواهی تبدیل می‌شود. در یک چرخش، فناوری مانند جادو به نظر می‌رسد - و جنبه حقوقی آن مانند جاذبه.

سوالات متداول

اینکه بنیانگذار OpenClaw به OpenAI پیوسته در حالی که OpenClaw به یک بنیاد منتقل شده، به چه معناست؟

این نشان دهنده شکافی بین شخصی که «عامل‌های شخصی» را می‌سازد و پروژه‌ای که همچنان تحت مدیریت عمومی است، می‌باشد. پیوستن استاینبرگر به OpenAI نشان می‌دهد که او بر پیشرفت محصولات به سبک عامل در آنجا تمرکز خواهد کرد. قرار دادن OpenClaw در یک بنیاد با هدف متن‌باز نگه داشتن آن و پشتیبانی پایدار از آن است. در عمل، این اقدام با هدف حفظ اعتماد جامعه انجام می‌شود، در حالی که سازنده به جایی می‌رود که منابع وجود دارند.

چرا عامل‌های هوش مصنوعی به سبک OpenClaw روی کارهایی مانند ایمیل و کارهای اداری تمرکز دارند؟

از آنجا که کار «مدیریت زندگی» تکراری، مبتنی بر قوانین و زمان‌بر است، آن را به هدفی عملی برای اتوماسیون تبدیل می‌کند. مثال‌های اینجا - اولویت‌بندی ایمیل، مدارک بیمه و ثبت نام پرواز - وظایف محدودی با معیارهای موفقیت واضح هستند. این تمرکز می‌تواند باعث شود که کارشناسان زودتر از دستیاران آزادتر احساس ارزشمندی کنند. همچنین تأکید می‌کند که چرا کنترل دقیق دسترسی هنگام تماس کارشناسان با حساب‌های شخصی اهمیت دارد.

چگونه می‌توانید یک عامل هوش مصنوعی متن‌باز مانند OpenClaw را بدون ایجاد مشکلات امنیتی مستقر کنید؟

با آن مانند نرم‌افزاری رفتار کنید که می‌تواند داده‌های حساس را ببیند، نه مانند یک اسکریپت اسباب‌بازی. یک رویکرد رایج، قفل کردن اعتبارنامه‌ها، محدود کردن مجوزها به حداقل مورد نیاز و نگه داشتن گزارش‌ها و مسیرهای حسابرسی است. آن را در یک محیط محدود اجرا کنید و آن را از سیستم‌های با ارزش بالا جدا کنید. بسیاری از نگرانی‌های امنیتی ناشی از استقرار بی‌دقت است، به خصوص زمانی که افراد نقاط پایانی یا توکن‌ها را بدون محافظت قوی در معرض دید قرار می‌دهند.

چرا پنتاگون از محدودیت‌های آنتروپیک برای کلود جهت استفاده نظامی ناراضی است؟

اختلاف بر سر دامنه و کنترل است: پنتاگون خواهان دسترسی گسترده «برای تمام اهداف قانونی» است، در حالی که آنتروپیک به عنوان شرکتی توصیف می‌شود که محدودیت‌های سختی را در مورد سلاح‌های کاملاً خودمختار و نظارت گسترده اعمال می‌کند. مقامات همچنین نمی‌خواهند مدل‌ها در میانه راه جریان کار را مسدود کنند یا به مذاکرات بی‌پایان در مورد موارد خاص نیاز داشته باشند. این تنش کمتر از آنچه به نظر می‌رسد انتزاعی است - این مربوط به این است که چه کسی تصمیم می‌گیرد که مدل در عملیات واقعی چه کاری می‌تواند انجام دهد.

چگونه استارت‌آپ‌ها سعی می‌کنند رفتار انسان را با هوش مصنوعی پیش‌بینی کنند و چرا این موضوع بحث‌برانگیز به نظر می‌رسد؟

مثال اینجا، یعنی سیمیل، یک مدل «یادگیری محدود» را دنبال می‌کند که هدف آن پیش‌بینی رفتار احتمالی افراد، از جمله پیش‌بینی سوالات احتمالی در زمینه‌هایی مانند تماس‌های درآمدی است. رویکرد شرح داده شده، مصاحبه‌ها را با داده‌های تحقیقات رفتاری و شبیه‌سازی‌ها با استفاده از عوامل هوش مصنوعی که برای انعکاس ترجیحات واقعی در نظر گرفته شده‌اند، ترکیب می‌کند. این رویکرد وهم‌آور به نظر می‌رسد زیرا هوش مصنوعی را از پاسخ دادن به افراد به پیش‌بینی آنها تغییر می‌دهد. چالش، محدود نگه داشتن ادعاها و اجتناب از اعتماد بیش از حد است.

چه اتفاقی می‌افتد وقتی ابزارهای ویدیویی هوش مصنوعی، مانند آنچه در درگیری بایت‌دنس و دیزنی رخ داد، شخصیت‌های دارای حق نشر تولید کنند؟

الگوی گزارش‌شده آشنا است: یک استودیو دستور توقف و توقف فعالیت می‌دهد و پلتفرم با تقویت تدابیر حفاظتی برای جلوگیری از استفاده غیرمجاز از IP یا تصویر، به آن پاسخ می‌دهد. در بسیاری از ابزارها، تدابیر حفاظتی به معنای فیلترهای محتوای سختگیرانه‌تر، تشخیص بهتر شخصیت‌های قابل تشخیص و اجرای واضح‌تر سیاست‌های کاربر است. تضاد اساسی، سرعت در مقابل مسئولیت است - تولید ویروسی به سرعت انجام می‌شود و اجرای حقوق مانند نیروی جاذبه عمل می‌کند. با گسترش تولیدکنندگان ویدیو، انتظار برخوردهای بیشتری از این دست را داشته باشید.

اخبار هوش مصنوعی دیروز: ۱۳ فوریه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ