🏫 در برخی مدارس، چتباتها از دانشآموزان در مورد کارشان بازجویی میکنند. اما انقلاب هوش مصنوعی معلمان را نگران کرده است ↗
بعضی از مدارس استرالیایی در حال آزمایش رویکردی تندتر به «نشان دادن کار خود» هستند - دانشآموزان یک تکلیف را تمام میکنند، سپس یک ربات چت هوش مصنوعی از آنها به صورت رفت و برگشتی آزمون میگیرد تا مطمئن شود که آنچه را که ارائه دادهاند، فهمیدهاند. این اساساً یک گفتگوی شفاهی است، اما با این سوال که «منظورتان از این حرف چیست؟» تا زمانی که شروع به لرزیدن کنید.
نگرانی بزرگتر، توزیع ناهموار است: یک مقاله صنعتی هشدار میدهد که پذیرندگان سریع میتوانند با سرعت زیاد پیش بیفتند در حالی که دیگران عقب میمانند و یک سیستم آموزشی دو سرعته ایجاد میکنند. معلمان همچنین نگرانیهای آشنا - و هنوز جدی - را برجسته میکنند: حریم خصوصی، رفاه و چگونگی جلوگیری از تبدیل شدن «کمک هوش مصنوعی» به «هوش مصنوعی این کار را کرد».
👮 پلیس با استفاده از ابزارهای هوش مصنوعی ارائه شده توسط پالانتیر، سوء رفتار افسران را گزارش میدهد ↗
متروپولیتن لندن از هوش مصنوعی ارائه شده توسط پالانتیر برای تجزیه و تحلیل الگوهای نیروی کار داخلی - بیماری، غیبت، اضافه کاری - استفاده میکند تا سیگنالهایی را که ممکن است با مسائل مربوط به استانداردهای حرفهای مرتبط باشند، پیدا کند. این طرح به عنوان یک طرح آزمایشی با محدودیت زمانی ارائه شده است و از همه مهمتر، متروپولیتن میگوید که انسانها هنوز هم تصمیمات واقعی را میگیرند... اما این "هنوز" کار زیادی انجام میدهد.
فدراسیون پلیس از این موضوع هیجانزده نیست و آن را «سوءظن خودکار» مینامد و در مورد ابزارهای مبهمی که استرس و حجم کار را به عنوان تخلف تعبیر میکنند، هشدار میدهد. این یکی از آن لحظاتی است که فناوری روی اسلاید زیبا به نظر میرسد، اما بعد تصور میکنید که روی زمین چه احساسی دارد و ناگهان به شدت آزاردهنده میشود.
🛡️ نهاد ناظر بر حریم خصوصی بریتانیا در بیانیهای مشترک نسبت به تصاویر تولید شده توسط هوش مصنوعی هشدار داد ↗
ICO بریتانیا به سایر نهادهای نظارتی در مورد تصاویر تولید شده توسط هوش مصنوعی که افراد قابل شناسایی را بدون رضایت به تصویر میکشند، پیوست - اساساً: عبارت «مصنوعی بودن» را به عنوان یک بهانه جادویی در نظر نگیرید. پیام این است که به جای انجام حرکت کلاسیک فناوری مبنی بر ارسال اولیه و عذرخواهی بعدی، از همان ابتدا اقدامات حفاظتی را ایجاد کرده و نهادهای نظارتی را درگیر کنید.
آنها همچنین خطرات فزاینده برای کودکان را برجسته میکنند، که منطقی هم هست، زیرا وقتی این مواد پخش میشوند، مثل این است که بخواهید اکلیل را دوباره داخل شیشه بریزید. نکته اصلی این است که حریم خصوصی و کرامت قرار است در چرخه مد دوام بیاورند، یا حداقل اینطور به نظر میرسد.
🪖 به گزارش اکسیوس، وزیر دفاع ایالات متحده، هگزت، مدیرعامل شرکت آنتروپیک را برای مذاکرات جدی در مورد استفاده نظامی از کلود احضار کرد ↗
رویترز گزارش میدهد که وزیر دفاع ایالات متحده قرار است با مدیرعامل شرکت آنتروپیک برای گفتگویی که به عنوان گفتگویی تهاجمیتر در مورد استفاده نظامی از کلود توصیف شده است، دیدار کند. طبق گزارشها، پنتاگون میخواهد ارائهدهندگان اصلی هوش مصنوعی، مدلهایی را با محدودیتهای کمتر در شبکههای طبقهبندیشده در دسترس قرار دهند - و آنتروپیک در برابر هرگونه سست شدن تدابیر حفاظتی مقاومت کرده است.
معنای ضمنی این جمله شبیه دوراهی کلاسیک «سریع حرکت کن اما... موشکها را هم در نظر بگیر» است. اگر طرفین نتوانند روی نردههای محافظ به توافق برسند، رابطه میتواند متشنج یا حتی از هم بپاشد - با این حال، آنتروپیک همچنین اشاره میکند که مذاکرات با دولت همچنان سازنده است، بنابراین پرتنش است، اما (هنوز) به معنای جدایی کامل نیست.
🧠 ChatGPT - یادداشتهای انتشار ↗
یادداشتهای انتشار OpenAI به یک پنجرهی زمینهی گسترشیافته برای حالت «فکر کردن» اشاره دارد - به این معنی که میتوانید متن بیشتری به مدل بدهید و رشتههای طولانیتر را بدون از دست دادن جزئیات قبلی، منسجم نگه دارید. اگر تا به حال دیدهاید که یک مدل چیزی را که شما به معنای واقعی کلمه گفتهاید (درد) «فراموش» کند، این دقیقاً همان چیزی را هدف قرار داده است.
این یک ارتقای خیلی عجیب و غریب است که بیسروصدا چیزهای کاربردی را تغییر میدهد: مستندهای طولانیتر، پروژههای درهمتنیدهتر، جلسات تحقیقاتی پراکندهتر. خیلی جذاب نیست، اما از آن نوع تغییر لولهکشی است که ناگهان باعث میشود کل خانه بزرگتر به نظر برسد.
سوالات متداول
وقتی مدارس از چتباتها برای «بازجویی» دانشآموزان در مورد تکالیف استفاده میکنند، منظور چیست؟
در برخی از مدارس استرالیا، دانشآموزان یک تکلیف را انجام میدهند و سپس با یک چتبات هوش مصنوعی که استدلال آنها را بررسی میکند، به بحث و گفتگو میپردازند. این چتبات مانند یک گفتگوی شفاهی عمل میکند و دانشآموزان را تحت فشار قرار میدهد تا آنچه را که نوشتهاند و دلیل آن را توضیح دهند. هدف، تأیید درک مطلب است، نه فقط خروجی آن. همچنین میتواند شکافهایی را آشکار کند که دانشآموز نمیتواند از ادعاهای کلیدی خود دفاع کند.
چگونه چتباتهای هوش مصنوعی در مدارس میتوانند یک سیستم آموزشی «دو سرعته» ایجاد کنند؟
یک مقاله صنعتی هشدار میدهد که مدارسی که به سرعت از هوش مصنوعی استفاده میکنند، میتوانند پیشرفت کنند در حالی که مدارسی که کندتر عمل میکنند، عقب میمانند. اگر برخی مدارس از ابزارهای هوش مصنوعی برای ارزیابی درک، پشتیبانی از یادگیری یا جلوگیری از سوءاستفاده استفاده کنند، ممکن است نتایج را زودتر بهبود بخشند. برخی دیگر ممکن است بودجه، ظرفیت کارکنان یا شفافیت سیاست برای راهاندازی سیستمهای مشابه را نداشته باشند. این پذیرش ناهموار میتواند شکافهای موجود در منابع و دستاوردها را افزایش دهد.
معلمان چگونه تلاش میکنند جلوی تبدیل شدن «کمک هوش مصنوعی» به «هوش مصنوعی این کار را کرد» را بگیرند؟
یک رویکرد رایج، تغییر جهت ارزیابی به سمت فرآیند و توضیح است، نه فقط محصول نهایی. پرسش و پاسخ، پیشنویسها، بازتابها یا بررسیهای شفاهی به سبک رباتهای گفتگو میتواند ارائه کاری را که نمیفهمید دشوارتر کند. معلمان همچنین ممکن است مرزهای محکمتری برای کمکهای قابل قبول، مانند طوفان فکری در مقابل بازنویسی کامل، تعیین کنند. تأکید همچنان بر نشان دادن درک است، نه نظارت بر هر ابزاری.
چه مسائل مربوط به حریم خصوصی و رفاه هنگام استفاده از هوش مصنوعی در کلاسهای درس مطرح میشود؟
معلمان همچنان نگرانیهایی را در مورد اینکه چه دادههایی از دانشآموزان جمعآوری میشود، کجا ذخیره میشود و چه کسی میتواند به آن دسترسی داشته باشد، مطرح میکنند. همچنین اگر دانشآموزان احساس کنند که دائماً توسط پرسشهای ماشینی تحت نظارت یا فشار هستند، نگرانیهایی در مورد رفاه آنها وجود دارد. کودکان یک گروه در معرض خطر ویژه هستند، زیرا اطلاعات حساس میتوانند به روشهای غیرمنتظرهای در سیستمها پخش شوند یا باقی بمانند. بسیاری از مدارس به جای تلاش برای مقاومسازی آنها در آینده، قصد دارند از همان ابتدا اقدامات حفاظتی را اعمال کنند.
پلیس متروپولیتن چگونه از هوش مصنوعی ارائه شده توسط پالانتیر برای شناسایی سوءرفتار احتمالی افسران استفاده میکند؟
متروپولیتن لندن از هوش مصنوعی ارائه شده توسط پالانتیر برای تجزیه و تحلیل الگوهای نیروی کار مانند بیماری، غیبت و اضافه کاری استفاده میکند. هدف، شناسایی سیگنالهایی است که ممکن است با مسائل مربوط به استانداردهای حرفهای مرتبط باشند. این طرح به عنوان یک طرح آزمایشی با محدودیت زمانی توصیف میشود و متروپولیتن میگوید که انسانها هنوز در این مورد تصمیمگیری میکنند. منتقدان معتقدند که اگر این ابزار استرس را به عنوان تخلف تلقی کند، میتواند مانند «سوءظن خودکار» به نظر برسد.
چرا اتحادیههای پلیس نگران «سوءظن خودکار» ناشی از ابزارهای نظارتی هوش مصنوعی هستند؟
نگرانی فدراسیون پلیس این است که مدلهای مبهم ممکن است از الگوهایی که توضیحات بیخطری دارند، تخلفات را استنباط کنند. افزایش حجم کار، مشکلات سلامتی و استرس میتواند بدون اینکه دلالت بر تخلف داشته باشد، میزان حضور یا اضافه کاری را تغییر دهد. اگر منطق ابزار شفاف نباشد، به چالش کشیدن پرچمها برای افسران یا تنظیم آستانههای منصفانه برای مدیران دشوارتر میشود. حتی با تصمیمات انسانی، سیگنالهای خودکار همچنان میتوانند نتایج را شکل دهند.
هشدار سازمان ثبت احوال بریتانیا (ICO) در مورد تصاویر تولید شده توسط هوش مصنوعی از افراد قابل شناسایی چیست؟
نهاد ناظر بر حریم خصوصی بریتانیا به دیگر نهادهای نظارتی پیوست و هشدار داد که «مصنوعی» بودن به معنای بیخطر بودن نیست. اگر یک تصویر تولید شده توسط هوش مصنوعی، شخصی قابل شناسایی را بدون رضایت به تصویر بکشد، خطرات مربوط به حریم خصوصی و کرامت انسانی همچنان پابرجاست. نهادهای نظارتی بر ایجاد زودهنگام تدابیر حفاظتی و مشارکت در نظارت به جای ارسال اولیه تأکید دارند. آنها همچنین خطرات شدیدتر برای کودکان را گزارش میدهند، جایی که آسیب میتواند به سرعت پس از انتشار محتوا افزایش یابد.
چه چیزی پشت فشار گزارش شده پنتاگون بر شرکت آنتروپیک در مورد استفاده نظامی از کلود وجود دارد؟
رویترز گزارش میدهد که وزیر دفاع ایالات متحده قرار است برای مذاکرات جدیتر در مورد استفاده نظامی از کلود با مدیرعامل شرکت آنتروپیک دیدار کند. طبق گزارشها، پنتاگون میخواهد ارائهدهندگان اصلی هوش مصنوعی، مدلهایی را با محدودیتهای کمتر در شبکههای طبقهبندیشده در دسترس قرار دهند. آنتروپیک در برابر سهلانگاری در حفاظتها مقاومت کرده و به اختلاف بر سر حفاظها اشاره کرده است. به نظر میرسد این رابطه پرتنش است، اگرچه هر دو طرف میگویند مذاکرات همچنان سازنده است.
چه چیزی در یادداشتهای انتشار ChatGPT در مورد طول متن حالت «فکر کردن» تغییر کرده است؟
یادداشتهای انتشار OpenAI به یک پنجره زمینه گستردهتر برای حالت «فکر کردن» اشاره میکند که امکان قرار دادن متن بیشتر در یک رشته را فراهم میکند. در عمل، این میتواند به اسناد طولانی، پروژههای پیچیده و تحقیقات چند مرحلهای که جزئیات اولیه در آنها اهمیت دارد، کمک کند. این یک ارتقاء به سبک لولهکشی است تا یک ویژگی پر زرق و برق. مزیت اصلی، جزئیات از دست رفته کمتر در جلسات طولانیتر است.