🦞 استاینبرگر، بنیانگذار OpenClaw، به OpenAI پیوست و ربات متنباز به بنیان آن تبدیل شد ↗
پیتر استاینبرگر به OpenAI میرود تا «عاملهای شخصی» را پیش ببرد، در حالی که خود OpenClaw در یک بنیاد قرار میگیرد تا متنباز (و پشتیبانیشده) باقی بماند. این جدایی... کمی هوشمندانه است - سازنده را استخدام کنید، پروژه را عمومی نگه دارید.
طرح OpenClaw به طرز شگفتانگیزی کاربردی است: اولویتبندی ایمیلها، کارهای اداری بیمه، بررسی پرواز، وظایف آزاردهندهی مدیریت زندگی. همچنین در GitHub بسیار محبوب شده است و این محبوبیت، نگرانیهای امنیتی را به همراه داشته است، به خصوص اگر افراد آن را با بیدقتی نصب کنند.
🪖 پنتاگون از مخالفتهای آنتروپیک بر سر استفاده ارتش از مدل هوش مصنوعی کلود «خسته» شده و ممکن است روابط خود را قطع کند ↗
دعوای اصلی: پنتاگون خواهان دسترسی گسترده و «برای تمام مقاصد قانونی» است، و شرکت آنتروپیک هنوز در تلاش است تا محدودیتهای سفت و سختی را در مورد سلاحهای کاملاً خودمختار و نظارت گسترده حفظ کند. این نوع اختلافنظر تا زمانی که کسی نگوید «ما ممکن است شما را جایگزین کنیم» فلسفی به نظر میرسد
یک نکتهی دست کم گرفته شده - مقامات نمیخواهند این مدل ناگهان جریانهای کاری را در میانه راه مسدود کند، و نمیخواهند برای همیشه در مورد موارد حاشیهای مذاکره کنند (منصفانه است... اما خب، همینطور هم هست). اینجا واقعاً یک تنش «چه کسی کلیدها را در دست دارد» وجود دارد، و این یک موضوع نامحسوس نیست.
🧠 مدل ساخت استارتاپ برای پیشبینی رفتار انسان ↗
شرکت سیمایل (Simile) یک دور جذب سرمایه ۱۰۰ میلیون دلاری را برای ساخت یک مدل «یادگیری محدود» با هدف پیشبینی اقدامات احتمالی افراد - از جمله به طور خاص، پیشبینی سوالات احتمالی در مواردی مانند تماسهای درآمدی - جذب کرد. هدف محدود، جاهطلبی بزرگ، ترکیبی کمی وهمآور.
این رویکرد بر مصاحبه با افراد واقعی به علاوه دادههای تحقیقات رفتاری تکیه دارد، سپس شبیهسازیهایی را با عوامل هوش مصنوعی اجرا میکند که به منظور انعکاس ترجیحات واقعی طراحی شدهاند. این مانند ساختن یک مدل آب و هوایی برای تصمیمات انسانی است... که تا زمانی که غیرممکن به نظر نمیرسد، غیرممکن به نظر میرسد.
🧑⚖️ خبر فوری: کاخ سفید به نماینده مجلس یوتا فشار میآورد تا لایحه شفافیت هوش مصنوعی را لغو کند ↗
یک طرح شفافیت هوش مصنوعی در سطح ایالتی در یوتا، مستقیماً از سوی کاخ سفید مورد انتقاد قرار گرفته است و مقامات از حامی این لایحه میخواهند که آن را به جریان نیندازد. چارچوب این لایحه کاملاً در مورد شفافیت و ایمنی کودکان است - که بحث در مورد آن از نظر ظاهری دشوار است.
اما دعوای بزرگتر، دعوای صلاحیت قضایی است: چه کسی میتواند قوانین را تعیین کند، ایالتها یا دولت فدرال. و بله، این یک دعوای لفظی است - مثل اینکه دو نفر یک فرمان را گرفته باشند و اصرار داشته باشند که آنها آرام هستند.
🎬 پس از تهدید دیزنی، بایتدنس متعهد شد که از استفاده غیرمجاز از IP در ابزار ویدیویی هوش مصنوعی جلوگیری کند ↗
دیزنی دستور توقف استفاده از مولد ویدیوی هوش مصنوعی ByteDance را صادر کرد و ByteDance میگوید که در حال تقویت تدابیر حفاظتی برای جلوگیری از استفاده غیرمجاز از مالکیت معنوی و تصاویر است. ظاهراً شکایت این است که این ابزار میتواند شخصیتهای آشنای فرنچایز را طوری نمایش دهد که انگار فقط... استیکرهای عمومی هستند.
این همان برخوردی است که همه پیشبینی میکردند: ابزارهای ویدیویی هوش مصنوعیِ ویروسی به سرعت در حال پیشرفت هستند، استودیوها به سمت طرح دعوی پیش میروند و عبارت «ما اقدامات حفاظتی اضافه خواهیم کرد» به زبان پیشفرض عذرخواهی تبدیل میشود. در یک چرخش، فناوری مانند جادو به نظر میرسد - و جنبه حقوقی آن مانند جاذبه.
سوالات متداول
اینکه بنیانگذار OpenClaw به OpenAI پیوسته در حالی که OpenClaw به یک بنیاد منتقل شده، به چه معناست؟
این نشان دهنده شکافی بین شخصی که «عاملهای شخصی» را میسازد و پروژهای که همچنان تحت مدیریت عمومی است، میباشد. پیوستن استاینبرگر به OpenAI نشان میدهد که او بر پیشرفت محصولات به سبک عامل در آنجا تمرکز خواهد کرد. قرار دادن OpenClaw در یک بنیاد با هدف متنباز نگه داشتن آن و پشتیبانی پایدار از آن است. در عمل، این اقدام با هدف حفظ اعتماد جامعه انجام میشود، در حالی که سازنده به جایی میرود که منابع وجود دارند.
چرا عاملهای هوش مصنوعی به سبک OpenClaw روی کارهایی مانند ایمیل و کارهای اداری تمرکز دارند؟
از آنجا که کار «مدیریت زندگی» تکراری، مبتنی بر قوانین و زمانبر است، آن را به هدفی عملی برای اتوماسیون تبدیل میکند. مثالهای اینجا - اولویتبندی ایمیل، مدارک بیمه و ثبت نام پرواز - وظایف محدودی با معیارهای موفقیت واضح هستند. این تمرکز میتواند باعث شود که کارشناسان زودتر از دستیاران آزادتر احساس ارزشمندی کنند. همچنین تأکید میکند که چرا کنترل دقیق دسترسی هنگام تماس کارشناسان با حسابهای شخصی اهمیت دارد.
چگونه میتوانید یک عامل هوش مصنوعی متنباز مانند OpenClaw را بدون ایجاد مشکلات امنیتی مستقر کنید؟
با آن مانند نرمافزاری رفتار کنید که میتواند دادههای حساس را ببیند، نه مانند یک اسکریپت اسباببازی. یک رویکرد رایج، قفل کردن اعتبارنامهها، محدود کردن مجوزها به حداقل مورد نیاز و نگه داشتن گزارشها و مسیرهای حسابرسی است. آن را در یک محیط محدود اجرا کنید و آن را از سیستمهای با ارزش بالا جدا کنید. بسیاری از نگرانیهای امنیتی ناشی از استقرار بیدقت است، به خصوص زمانی که افراد نقاط پایانی یا توکنها را بدون محافظت قوی در معرض دید قرار میدهند.
چرا پنتاگون از محدودیتهای آنتروپیک برای کلود جهت استفاده نظامی ناراضی است؟
اختلاف بر سر دامنه و کنترل است: پنتاگون خواهان دسترسی گسترده «برای تمام اهداف قانونی» است، در حالی که آنتروپیک به عنوان شرکتی توصیف میشود که محدودیتهای سختی را در مورد سلاحهای کاملاً خودمختار و نظارت گسترده اعمال میکند. مقامات همچنین نمیخواهند مدلها در میانه راه جریان کار را مسدود کنند یا به مذاکرات بیپایان در مورد موارد خاص نیاز داشته باشند. این تنش کمتر از آنچه به نظر میرسد انتزاعی است - این مربوط به این است که چه کسی تصمیم میگیرد که مدل در عملیات واقعی چه کاری میتواند انجام دهد.
چگونه استارتآپها سعی میکنند رفتار انسان را با هوش مصنوعی پیشبینی کنند و چرا این موضوع بحثبرانگیز به نظر میرسد؟
مثال اینجا، یعنی سیمیل، یک مدل «یادگیری محدود» را دنبال میکند که هدف آن پیشبینی رفتار احتمالی افراد، از جمله پیشبینی سوالات احتمالی در زمینههایی مانند تماسهای درآمدی است. رویکرد شرح داده شده، مصاحبهها را با دادههای تحقیقات رفتاری و شبیهسازیها با استفاده از عوامل هوش مصنوعی که برای انعکاس ترجیحات واقعی در نظر گرفته شدهاند، ترکیب میکند. این رویکرد وهمآور به نظر میرسد زیرا هوش مصنوعی را از پاسخ دادن به افراد به پیشبینی آنها تغییر میدهد. چالش، محدود نگه داشتن ادعاها و اجتناب از اعتماد بیش از حد است.
چه اتفاقی میافتد وقتی ابزارهای ویدیویی هوش مصنوعی، مانند آنچه در درگیری بایتدنس و دیزنی رخ داد، شخصیتهای دارای حق نشر تولید کنند؟
الگوی گزارششده آشنا است: یک استودیو دستور توقف و توقف فعالیت میدهد و پلتفرم با تقویت تدابیر حفاظتی برای جلوگیری از استفاده غیرمجاز از IP یا تصویر، به آن پاسخ میدهد. در بسیاری از ابزارها، تدابیر حفاظتی به معنای فیلترهای محتوای سختگیرانهتر، تشخیص بهتر شخصیتهای قابل تشخیص و اجرای واضحتر سیاستهای کاربر است. تضاد اساسی، سرعت در مقابل مسئولیت است - تولید ویروسی به سرعت انجام میشود و اجرای حقوق مانند نیروی جاذبه عمل میکند. با گسترش تولیدکنندگان ویدیو، انتظار برخوردهای بیشتری از این دست را داشته باشید.