😬 پاپ لئو چهاردهم نسبت به چتباتهای هوش مصنوعی «بیش از حد مهربان» و دستکاری عاطفی هشدار داد ↗
در این مقاله آمده است که پاپ نگران این است که چتباتها بیش از حد از نظر احساسی صمیمی شوند - و به جای اینکه در مسیر «نرمافزار مفید» باقی بمانند، افراد را به سمت وابستگی سوق دهند
این موضوع را به عنوان یک مشکل اخلاقی و اجتماعی مطرح میکند، نه یک مشکل مربوط به گجت. معنای ضمنی آن این است: اگر یک ربات بتواند کاملاً از شما تعریف و تمجید کند، این به خودی خود خوب نیست.
📉 درآمدهای شرکتهای بزرگ فناوری در حالی افزایش مییابد که برندگان هوش مصنوعی ۲۰۲۶ هنوز مشخص نیستند ↗
این یکی حول یک ایده ناخوشایند میچرخد: «رهبر هوش مصنوعی» هنوز بیشتر شبیه برندسازی است تا مدرک، حداقل از نظر درآمد. کلی خرج شده، کلی وعده داده شده، و تابلوی امتیازات همچنان مبهم است...
به نظر میرسد سرمایهگذاران به دنبال شواهدی هستند که نشان دهد سرمایهگذاری در هوش مصنوعی به درآمد پایدار تبدیل میشود، نه فقط هزینههای ابری بیشتر و نسخههای نمایشی درخشانتر.
😟 بیش از یک چهارم بریتانیاییها میگویند که نگران از دست دادن شغل خود به دلیل هوش مصنوعی در پنج سال آینده هستند ↗
گاردین گزارش میدهد که یافتههای یک نظرسنجی نشان میدهد بخش قابل توجهی از مردم بریتانیا نگران از دست دادن شغلهایشان به دلیل هوش مصنوعی هستند - و این یک عذاب انتزاعی نیست، بلکه شخصی به نظر میرسد.
همچنین به شکافی اشاره دارد بین اینکه کارگران چقدر سریع فکر میکنند تغییر در راه است و چقدر برای آن آمادهاند... که ترکیبی ناخوشایند و تمامعیار است.
🧰 هوش مصنوعی باید به جای جایگزینی ما، ما را تقویت کند، در غیر این صورت کارگران انسانی محکوم به فنا هستند ↗
این مقاله استدلال میکند که چارچوب «تقویت در مقابل جایگزینی» همه چیز است. اگر هوش مصنوعی به عنوان جایگزین فروخته شود، مردم آن را پس میزنند - اگر به عنوان ابزاری قرار گیرد که بدترین وظایف را جذب میکند، کنار آمدن با آن آسانتر است.
این امر به حمایت از کارگران و پاسخگویی نیز متکی است، زیرا دیگر «به ما اعتماد کنید» کافی نیست.
🧩 شرکت Humans& فکر میکند هماهنگی مرز بعدی هوش مصنوعی است و در حال ساخت مدلی برای اثبات آن است ↗
تککرانچ به موضوع انسانها و شرطبندی آنها مبنی بر اینکه جهش بزرگ بعدی هماهنگی است، میپردازد - مدلهایی که میتوانند افراد، وظایف، گردشهای کاری و تصمیمات را بدون اینکه همه چیز به اسپاگتی تبدیل شود، مدیریت کنند.
اساساً این «ترکیب هوش مصنوعی به عنوان مدیر پروژه و سیستم عامل» است، که کمی نفرین شده به نظر میرسد - اما اگر تا به حال تیمی را دیده باشید که به دلایل مرموز، مهلتهای مقرر را از دست میدهد، به طرز عجیبی قابل قبول است.
🎨 محققان هوش مصنوعی را در برابر ۱۰۰۰۰۰ انسان از نظر خلاقیت آزمایش کردند ↗
ساینسدیلی خلاصهای از تحقیقاتی را منتشر کرده است که نشان میدهد هوش مصنوعی میتواند در مقایسه با گروههای بزرگی از انسانها، در آزمونهای خلاقیت خاص، امتیاز شگفتانگیزی کسب کند. این موضوع، بسته به خلق و خوی شما، هم چشمگیر و هم کمی نگرانکننده است.
اما این همچنین به یک تمایز اشاره میکند: تولید ایدههای گسترده و مداوم در مقیاس بزرگ در مقابل نوع نادر و تیزبینانهای از اصالت انسانی که هنوز هم... غیرقابل کپیبرداری به نظر میرسد، حداقل فعلاً.
سوالات متداول
منظور مقاله از «بیش از حد مهربان» بودن چتباتهای هوش مصنوعی چه بود، و چرا این یک مسئله اخلاقی است؟
این گزارش استدلال میکند که این خطر نه تنها فنی، بلکه اجتماعی است: یک چتبات میتواند از نظر احساسی به گونهای احساس صمیمیت کند که بیسروصدا افراد را به سمت وابستگی سوق دهد. اگر یک ربات با دقت کامل چاپلوسی کند و دائماً در دسترس باشد، میتواند مرز بین «نرمافزار مفید» و دلبستگی شبیه رابطه را محو کند. نگرانی این است که این صمیمیت میتواند انتخابها، خلق و خو و ارزش شخصی را بدون اینکه کاربران کاملاً متوجه آن شوند، شکل دهد.
شرکتها چگونه میتوانند خطر دستکاری عاطفی در چتباتهای هوش مصنوعی را کاهش دهند؟
یک رویکرد رایج، تعیین مرزهای رفتاری واضح است تا ربات بدون اینکه به یک ربات رمانتیک، مالکیتگرایانه یا حس گناهآلود تبدیل شود، همچنان حامی باقی بماند. بسیاری از تیمها نشانههای شفافیت (یادآوری میکنند که این یک هوش مصنوعی است)، سیاستهای واکنش ایمنتر در مورد آسیبپذیری و مسیرهای تشدید به پشتیبانی انسانی در صورت لزوم را اضافه میکنند. تشکیل منظم تیم قرمز برای «حلقههای وابستگی» به علاوه نظارت بر ترغیب بیش از حد شخصیسازی شده نیز میتواند مفید باشد.
آخرین درآمدهای شرکتهای بزرگ فناوری درباره اینکه چه کسی در هوش مصنوعی پیروز است چه میگوید؟
نکتهی کلیدی این است که «رهبر هوش مصنوعی» میتواند بیشتر به عنوان یک برند عمل کند تا یک مدرک، زمانی که درآمدها هنوز بازدهی واضح و پایداری را نشان نمیدهند. این مقاله هزینههای سنگین و وعدههای بزرگ را برجسته میکند، در حالی که جدول امتیازات همچنان مبهم است. به نظر میرسد سرمایهگذاران به دنبال شواهدی هستند که نشان دهد سرمایهگذاری در هوش مصنوعی به درآمد پایدار تبدیل میشود - نه صرفاً هزینههای بالاتر ابری و نسخههای نمایشی بهتر.
چرا بسیاری از مردم نگران آینده کار با هوش مصنوعی در بریتانیا هستند؟
این گزارش به یافتههای یک نظرسنجی اشاره میکند که نشان میدهد بیش از یک چهارم بریتانیاییها از از دست دادن شغل خود به دلیل هوش مصنوعی در پنج سال آینده میترسند. این نگرانی به عنوان یک اضطراب شخصی مطرح میشود، نه یک سرنوشت شوم انتزاعی. تنش کلیدی، شکاف بین سرعت فکر کارگران در مورد تغییر و میزان آمادگی آنها است که میتواند عدم اطمینان و بیاعتمادی را تشدید کند.
در آیندهی کار با هوش مصنوعی، «تقویت به جای جایگزینی» در عمل چگونه خواهد بود؟
این به معنای استفاده از هوش مصنوعی برای جذب بدترین بخشهای مشاغل - مدیریت تکراری، اولویتبندی، تهیه پیشنویس و تجزیه و تحلیل معمول - در حالی است که انسانها مسئول قضاوت، پاسخگویی و روابط هستند. این استدلال همچنین بر حمایتها و حاکمیت شرکتی تأکید دارد، زیرا «به ما اعتماد کنید» کافی نیست. در بسیاری از محیطهای کاری، این شامل طراحی مجدد نقشها، آموزش و ایجاد موانع در تصمیمات اتوماسیون میشود.
آیا هوش مصنوعی واقعاً میتواند انسانها را در آزمونهای خلاقیت شکست دهد، و این چه چیزی را ثابت میکند؟
خلاصه تحقیق نشان میدهد که هوش مصنوعی میتواند در مقایسه با گروههای بزرگی از افراد، در برخی از معیارهای خلاقیت، امتیاز شگفتآوری کسب کند. این میتواند نشاندهنده تولید ایدههای گسترده و مداوم در مقیاس بزرگ باشد - گزینههای محتمل فراوان که به سرعت تولید میشوند. این لزوماً نوع نوآوری دقیق و نادری را که انسانها در هنر یا پیشرفتها به آن بها میدهند، اثبات نمیکند، که این مقاله به آن اشاره میکند، هنوز هم متمایز به نظر میرسد.