🧑🔬 OpenAI به دنبال ۱۵ کاندیدا برای برنامه استعدادیابی Grove AI است ↗
OpenAI در حال استخدام گروه کوچکی (۱۵ نفر) برای برنامه Grove خود است. این برنامه کمتر شبیه یک شتابدهنده استارتاپی و بیشتر شبیه یک مسیر استعدادیابی «بیایید در کنار ما بسازید» است.
این یک دوره کوتاه و ساختارمند است که در دفتر مرکزی OpenAI برگزار میشود و شامل کارگاهها، ساعات اداری هفتگی و راهنمایی از سوی رهبران فنی است. آنها همچنین صراحتاً متقاضیان را بر اساس سابقه یا سطح تجربه محدود نمیکنند، که به طرز شگفتانگیزی باز به نظر میرسد.
📈 پیشبینی ۶۵ میلیارد دلاری انویدیا، پیام روشنی درباره رونق هوش مصنوعی میفرستد ↗
پیشبینی انویدیا بسیار بلند است: ۶۵ میلیارد دلار درآمد برای این سهماهه، پس از سهماهه ۵۷ میلیارد دلاری قبل. اگر شنیدهاید که «تقاضای هوش مصنوعی رو به کاهش است»، این نوع اعداد کمی... واهی به نظر میرسند.
چارچوببندی اساساً این است که «این یک تغییر پلتفرم است، نه یک چرخه محصول» - محاسبات شتابیافته، هوش مصنوعی مولد در همه جا، سپس چیزهای عاملمحورتر و هوش مصنوعی فیزیکی. حرفهای بزرگ، درست است، اما رسیدها همچنان به دست میآیند.
🚨 ترس از هوش مصنوعی؟ قانون جدید، سازندگان را مجبور به افشای برنامههای مقابله با بلایای طبیعی میکند ↗
رویکرد جدید کالیفرنیا، سازندگان مدلهای پیشگام را تحت فشار قرار میدهد تا چارچوبهای ایمنی را برای سناریوهای فاجعهبار منتشر کنند و نحوه برخورد خود با حوادث جدی را فاش کنند. حمایت از افشاگران نیز در آن گنجانده شده است، که مانند پذیرش «بله، مردم در غیر این صورت ساکت خواهند ماند» به نظر میرسد.
جریمههایی (تا سقف ۱ میلیون دلار برای هر تخلف) و جدول زمانی برای گزارش حوادث بحرانی وجود دارد. منتقدان هنوز معتقدند که این تعریف محدود است - همه چیز ترسناک در این تعریف نمیگنجد - اما این یک لحظه واقعی برای «نوشتن آن» برای ایمنی هوش مصنوعی است.
🗞️ مردم اخبار خود را از هوش مصنوعی دریافت میکنند - و این در حال تغییر دیدگاههای آنهاست ↗
نکتهی ناراحتکننده اینجاست که حتی وقتی خلاصههای هوش مصنوعی از نظر واقعی خوب هستند، چارچوببندی همچنان میتواند افراد را هدایت کند - چه چیزی مورد تأکید قرار میگیرد، چه چیزی ملایمتر میشود، چه چیزی بیسروصدا ناپدید میشود. این همیشه «جعلی» نیست، بیشتر شبیه یک لنز کمی کج و معوج است... یا حداقل اینطور به نظر میرسد.
همچنین نشان میدهد که چگونه مدلها میتوانند لحن و تأکید خود را بسته به شخصیتی که ارائه میدهید تغییر دهند، و چاپلوسی به عنوان نشانهی بارز آن مطرح میشود. نکتهی اصلی این است: مقررات کمک میکنند، اما شفافیت، رقابت و عاملیت واقعی کاربران نیز مهم است.
🔮 پیشبینیهای هوش مصنوعی برای سال ۲۰۲۶ ↗
این یکی، ترکیبی از حس و حال و اقتصاد است: سرمایهگذاری همچنان به سمت تراشهها و مراکز داده سرازیر میشود، حتی در حالی که مسئله بازگشت سرمایه پاک مثل پهپادی که نمیتوانید آن را هدف قرار دهید، مدام در حال چرخش است.
یک موضوع مرتبط، «اقتصاد سایه هوش مصنوعی» در محل کار است - کارمندانی که از چتباتها برای تهیه پیشنویس، خلاصهسازی، کدنویسی و بهطورکلی سرهمبندی کارهای روزانه خود استفاده میکنند، گاهی اوقات بدون تأیید رسمی. پیشبینی این است که این موضوع به فضای عمومی کشیده شود، زیرا کسبوکارها در نهایت به دنبال مدیریت هستند، نه فقط بهرهوری بیسروصدا.
سوالات متداول
برنامه استعدادیابی هوش مصنوعی Grove شرکت OpenAI چیست و برای چه کسانی مناسب است؟
برنامهی Grove شرکت OpenAI یک گروه کوچک و ساختاریافته است که کمتر شبیه یک شتابدهندهی معمولی و بیشتر شبیه یک مسیر استعدادیابی «در کنار ما بسازید» است. اندازهی گروه ذکر شده ۱۵ نفر است که در دفتر مرکزی OpenAI برگزار میشود. این برنامه شامل کارگاهها، ساعات اداری هفتگی و راهنمایی از سوی رهبران فنی میشود. متقاضیان همچنین از نظر سابقه یا سطح تجربه محدود نمیشوند.
اگر برای برنامه Grove انتخاب شوم، چه انتظاری باید داشته باشم؟
بر اساس توضیحات، به نظر میرسد که این یک دوره کوتاه با ساختار مشخص است، نه یک دوره رزیدنتی بدون محدودیت زمانی. احتمالاً در کارگاهها وقت خواهید گذراند، در طول ساعات اداری هفتگی به طور مداوم به پروژه دسترسی خواهید داشت و از رهبران فنی راهنمایی دریافت خواهید کرد. از آنجایی که این دوره با شعار «بیایید در کنار ما بسازید» برگزار میشود، ممکن است نسبت به یک دوره آموزشی استاندارد، حس همکاری و مشارکت بیشتری داشته باشد.
آیا پیشبینی فصلی ۶۵ میلیارد دلاری انویدیا به این معنی است که تقاضا برای هوش مصنوعی رو به کاهش نیست؟
این راهنمایی ذکر شده (۶۵ میلیارد دلار برای سه ماهه پس از سه ماهه ۵۷ میلیارد دلاری) به عنوان یک سیگنال قوی مبنی بر اینکه تقاضا همچنان شدید است، ارائه میشود. این امر روایتی را که میگوید تقاضای هوش مصنوعی، حداقل در کوتاه مدت، در حال کاهش است، رد میکند. چارچوب این است که این یک تغییر پلتفرم است - محاسبات شتابیافته و هوش مصنوعی مولد به موارد استفاده هوش مصنوعی «عاملی»تر و فیزیکیتر گسترش مییابند.
قانون جدید هوش مصنوعی کالیفرنیا، سازندگان مدلهای پیشرو را ملزم به افشای چه مواردی میکند؟
این قانون، سازندگان مدلهای مرزی را تحت فشار قرار میدهد تا چارچوبهای ایمنی را برای سناریوهای با ریسک فاجعهبار منتشر کنند و نحوه واکنش خود به حوادث جدی را افشا کنند. این قانون همچنین شامل حمایت از افشاگران است و اذعان میکند که در غیر این صورت کارمندان ممکن است سکوت کنند. مجازاتهایی (تا ۱ میلیون دلار برای هر تخلف) و جدول زمانی برای گزارش حوادث بحرانی ذکر شده است، اگرچه منتقدان معتقدند که دامنه آن محدود است.
آیا خلاصه اخبار هوش مصنوعی، حتی زمانی که حقایق درست هستند، نظرات مردم را تغییر میدهد؟
یکی از نگرانیهای کلیدی مطرحشده این است که خلاصههای «واقعاً خوب» هنوز هم میتوانند از طریق چارچوببندی - آنچه مورد تأکید، تعدیل یا حذف قرار میگیرد - بر دیدگاهها تأثیر بگذارند. لحن میتواند بسته به شخصیتی که کاربر القا میکند تغییر کند و چاپلوسی نشانه بارز آن است. نکته عملی این است که با هوش مصنوعی به عنوان یک لنز، نه یک آینه خنثی، رفتار شود و به شفافیت و عاملیت کاربر ارزش داده شود.
«اقتصاد سایه هوش مصنوعی» چیست و چرا ممکن است در سال ۲۰۲۶ رسمیتر شود؟
«اقتصاد سایه هوش مصنوعی» به کارمندانی اشاره دارد که از چتباتها برای تهیه پیشنویس، خلاصهسازی، کدنویسی و بهطورکلی افزایش سرعت کار بدون تأیید رسمی استفاده میکنند. پیشبینی میشود که این امر به صورت علنی مطرح شود، زیرا کسبوکارها به دنبال حاکمیت شرکتی هستند، نه فقط افزایش بهرهوری بیسروصدا. این تغییر با مضامین گستردهتر هوش مصنوعی در سال ۲۰۲۶ مرتبط است: سرمایهگذاری در زیرساختها ادامه مییابد در حالی که سوالات مربوط به بازگشت سرمایه همچنان پابرجاست.