اخبار هوش مصنوعی، ۲۲ فوریه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۲۲ فوریه ۲۰۲۶

🏫 در برخی مدارس، چت‌بات‌ها از دانش‌آموزان در مورد کارشان بازجویی می‌کنند. اما انقلاب هوش مصنوعی معلمان را نگران کرده است

بعضی از مدارس استرالیایی در حال آزمایش رویکردی تندتر به «نشان دادن کار خود» هستند - دانش‌آموزان یک تکلیف را تمام می‌کنند، سپس یک ربات چت هوش مصنوعی از آنها به صورت رفت و برگشتی آزمون می‌گیرد تا مطمئن شود که آنچه را که ارائه داده‌اند، فهمیده‌اند. این اساساً یک گفتگوی شفاهی است، اما با این سوال که «منظورتان از این حرف چیست؟» تا زمانی که شروع به لرزیدن کنید.

نگرانی بزرگتر، توزیع ناهموار است: یک مقاله صنعتی هشدار می‌دهد که پذیرندگان سریع می‌توانند با سرعت زیاد پیش بیفتند در حالی که دیگران عقب می‌مانند و یک سیستم آموزشی دو سرعته ایجاد می‌کنند. معلمان همچنین نگرانی‌های آشنا - و هنوز جدی - را برجسته می‌کنند: حریم خصوصی، رفاه و چگونگی جلوگیری از تبدیل شدن «کمک هوش مصنوعی» به «هوش مصنوعی این کار را کرد».

👮 پلیس با استفاده از ابزارهای هوش مصنوعی ارائه شده توسط پالانتیر، سوء رفتار افسران را گزارش می‌دهد

متروپولیتن لندن از هوش مصنوعی ارائه شده توسط پالانتیر برای تجزیه و تحلیل الگوهای نیروی کار داخلی - بیماری، غیبت، اضافه کاری - استفاده می‌کند تا سیگنال‌هایی را که ممکن است با مسائل مربوط به استانداردهای حرفه‌ای مرتبط باشند، پیدا کند. این طرح به عنوان یک طرح آزمایشی با محدودیت زمانی ارائه شده است و از همه مهم‌تر، متروپولیتن می‌گوید که انسان‌ها هنوز هم تصمیمات واقعی را می‌گیرند... اما این "هنوز" کار زیادی انجام می‌دهد.

فدراسیون پلیس از این موضوع هیجان‌زده نیست و آن را «سوءظن خودکار» می‌نامد و در مورد ابزارهای مبهمی که استرس و حجم کار را به عنوان تخلف تعبیر می‌کنند، هشدار می‌دهد. این یکی از آن لحظاتی است که فناوری روی اسلاید زیبا به نظر می‌رسد، اما بعد تصور می‌کنید که روی زمین چه احساسی دارد و ناگهان به شدت آزاردهنده می‌شود.

🛡️ نهاد ناظر بر حریم خصوصی بریتانیا در بیانیه‌ای مشترک نسبت به تصاویر تولید شده توسط هوش مصنوعی هشدار داد

ICO بریتانیا به سایر نهادهای نظارتی در مورد تصاویر تولید شده توسط هوش مصنوعی که افراد قابل شناسایی را بدون رضایت به تصویر می‌کشند، پیوست - اساساً: عبارت «مصنوعی بودن» را به عنوان یک بهانه جادویی در نظر نگیرید. پیام این است که به جای انجام حرکت کلاسیک فناوری مبنی بر ارسال اولیه و عذرخواهی بعدی، از همان ابتدا اقدامات حفاظتی را ایجاد کرده و نهادهای نظارتی را درگیر کنید.

آنها همچنین خطرات فزاینده برای کودکان را برجسته می‌کنند، که منطقی هم هست، زیرا وقتی این مواد پخش می‌شوند، مثل این است که بخواهید اکلیل را دوباره داخل شیشه بریزید. نکته اصلی این است که حریم خصوصی و کرامت قرار است در چرخه مد دوام بیاورند، یا حداقل اینطور به نظر می‌رسد.

🪖 به گزارش اکسیوس، وزیر دفاع ایالات متحده، هگزت، مدیرعامل شرکت آنتروپیک را برای مذاکرات جدی در مورد استفاده نظامی از کلود احضار کرد

رویترز گزارش می‌دهد که وزیر دفاع ایالات متحده قرار است با مدیرعامل شرکت آنتروپیک برای گفتگویی که به عنوان گفتگویی تهاجمی‌تر در مورد استفاده نظامی از کلود توصیف شده است، دیدار کند. طبق گزارش‌ها، پنتاگون می‌خواهد ارائه‌دهندگان اصلی هوش مصنوعی، مدل‌هایی را با محدودیت‌های کمتر در شبکه‌های طبقه‌بندی‌شده در دسترس قرار دهند - و آنتروپیک در برابر هرگونه سست شدن تدابیر حفاظتی مقاومت کرده است.

معنای ضمنی این جمله شبیه دوراهی کلاسیک «سریع حرکت کن اما... موشک‌ها را هم در نظر بگیر» است. اگر طرفین نتوانند روی نرده‌های محافظ به توافق برسند، رابطه می‌تواند متشنج یا حتی از هم بپاشد - با این حال، آنتروپیک همچنین اشاره می‌کند که مذاکرات با دولت همچنان سازنده است، بنابراین پرتنش است، اما (هنوز) به معنای جدایی کامل نیست.

🧠 ChatGPT - یادداشت‌های انتشار

یادداشت‌های انتشار OpenAI به یک پنجره‌ی زمینه‌ی گسترش‌یافته برای حالت «فکر کردن» اشاره دارد - به این معنی که می‌توانید متن بیشتری به مدل بدهید و رشته‌های طولانی‌تر را بدون از دست دادن جزئیات قبلی، منسجم نگه دارید. اگر تا به حال دیده‌اید که یک مدل چیزی را که شما به معنای واقعی کلمه گفته‌اید (درد) «فراموش» کند، این دقیقاً همان چیزی را هدف قرار داده است.

این یک ارتقای خیلی عجیب و غریب است که بی‌سروصدا چیزهای کاربردی را تغییر می‌دهد: مستندهای طولانی‌تر، پروژه‌های درهم‌تنیده‌تر، جلسات تحقیقاتی پراکنده‌تر. خیلی جذاب نیست، اما از آن نوع تغییر لوله‌کشی است که ناگهان باعث می‌شود کل خانه بزرگتر به نظر برسد.

سوالات متداول

وقتی مدارس از چت‌بات‌ها برای «بازجویی» دانش‌آموزان در مورد تکالیف استفاده می‌کنند، منظور چیست؟

در برخی از مدارس استرالیا، دانش‌آموزان یک تکلیف را انجام می‌دهند و سپس با یک چت‌بات هوش مصنوعی که استدلال آنها را بررسی می‌کند، به بحث و گفتگو می‌پردازند. این چت‌بات مانند یک گفتگوی شفاهی عمل می‌کند و دانش‌آموزان را تحت فشار قرار می‌دهد تا آنچه را که نوشته‌اند و دلیل آن را توضیح دهند. هدف، تأیید درک مطلب است، نه فقط خروجی آن. همچنین می‌تواند شکاف‌هایی را آشکار کند که دانش‌آموز نمی‌تواند از ادعاهای کلیدی خود دفاع کند.

چگونه چت‌بات‌های هوش مصنوعی در مدارس می‌توانند یک سیستم آموزشی «دو سرعته» ایجاد کنند؟

یک مقاله صنعتی هشدار می‌دهد که مدارسی که به سرعت از هوش مصنوعی استفاده می‌کنند، می‌توانند پیشرفت کنند در حالی که مدارسی که کندتر عمل می‌کنند، عقب می‌مانند. اگر برخی مدارس از ابزارهای هوش مصنوعی برای ارزیابی درک، پشتیبانی از یادگیری یا جلوگیری از سوءاستفاده استفاده کنند، ممکن است نتایج را زودتر بهبود بخشند. برخی دیگر ممکن است بودجه، ظرفیت کارکنان یا شفافیت سیاست برای راه‌اندازی سیستم‌های مشابه را نداشته باشند. این پذیرش ناهموار می‌تواند شکاف‌های موجود در منابع و دستاوردها را افزایش دهد.

معلمان چگونه تلاش می‌کنند جلوی تبدیل شدن «کمک هوش مصنوعی» به «هوش مصنوعی این کار را کرد» را بگیرند؟

یک رویکرد رایج، تغییر جهت ارزیابی به سمت فرآیند و توضیح است، نه فقط محصول نهایی. پرسش و پاسخ، پیش‌نویس‌ها، بازتاب‌ها یا بررسی‌های شفاهی به سبک ربات‌های گفتگو می‌تواند ارائه کاری را که نمی‌فهمید دشوارتر کند. معلمان همچنین ممکن است مرزهای محکم‌تری برای کمک‌های قابل قبول، مانند طوفان فکری در مقابل بازنویسی کامل، تعیین کنند. تأکید همچنان بر نشان دادن درک است، نه نظارت بر هر ابزاری.

چه مسائل مربوط به حریم خصوصی و رفاه هنگام استفاده از هوش مصنوعی در کلاس‌های درس مطرح می‌شود؟

معلمان همچنان نگرانی‌هایی را در مورد اینکه چه داده‌هایی از دانش‌آموزان جمع‌آوری می‌شود، کجا ذخیره می‌شود و چه کسی می‌تواند به آن دسترسی داشته باشد، مطرح می‌کنند. همچنین اگر دانش‌آموزان احساس کنند که دائماً توسط پرسش‌های ماشینی تحت نظارت یا فشار هستند، نگرانی‌هایی در مورد رفاه آنها وجود دارد. کودکان یک گروه در معرض خطر ویژه هستند، زیرا اطلاعات حساس می‌توانند به روش‌های غیرمنتظره‌ای در سیستم‌ها پخش شوند یا باقی بمانند. بسیاری از مدارس به جای تلاش برای مقاوم‌سازی آنها در آینده، قصد دارند از همان ابتدا اقدامات حفاظتی را اعمال کنند.

پلیس متروپولیتن چگونه از هوش مصنوعی ارائه شده توسط پالانتیر برای شناسایی سوءرفتار احتمالی افسران استفاده می‌کند؟

متروپولیتن لندن از هوش مصنوعی ارائه شده توسط پالانتیر برای تجزیه و تحلیل الگوهای نیروی کار مانند بیماری، غیبت و اضافه کاری استفاده می‌کند. هدف، شناسایی سیگنال‌هایی است که ممکن است با مسائل مربوط به استانداردهای حرفه‌ای مرتبط باشند. این طرح به عنوان یک طرح آزمایشی با محدودیت زمانی توصیف می‌شود و متروپولیتن می‌گوید که انسان‌ها هنوز در این مورد تصمیم‌گیری می‌کنند. منتقدان معتقدند که اگر این ابزار استرس را به عنوان تخلف تلقی کند، می‌تواند مانند «سوءظن خودکار» به نظر برسد.

چرا اتحادیه‌های پلیس نگران «سوءظن خودکار» ناشی از ابزارهای نظارتی هوش مصنوعی هستند؟

نگرانی فدراسیون پلیس این است که مدل‌های مبهم ممکن است از الگوهایی که توضیحات بی‌خطری دارند، تخلفات را استنباط کنند. افزایش حجم کار، مشکلات سلامتی و استرس می‌تواند بدون اینکه دلالت بر تخلف داشته باشد، میزان حضور یا اضافه کاری را تغییر دهد. اگر منطق ابزار شفاف نباشد، به چالش کشیدن پرچم‌ها برای افسران یا تنظیم آستانه‌های منصفانه برای مدیران دشوارتر می‌شود. حتی با تصمیمات انسانی، سیگنال‌های خودکار همچنان می‌توانند نتایج را شکل دهند.

هشدار سازمان ثبت احوال بریتانیا (ICO) در مورد تصاویر تولید شده توسط هوش مصنوعی از افراد قابل شناسایی چیست؟

نهاد ناظر بر حریم خصوصی بریتانیا به دیگر نهادهای نظارتی پیوست و هشدار داد که «مصنوعی» بودن به معنای بی‌خطر بودن نیست. اگر یک تصویر تولید شده توسط هوش مصنوعی، شخصی قابل شناسایی را بدون رضایت به تصویر بکشد، خطرات مربوط به حریم خصوصی و کرامت انسانی همچنان پابرجاست. نهادهای نظارتی بر ایجاد زودهنگام تدابیر حفاظتی و مشارکت در نظارت به جای ارسال اولیه تأکید دارند. آنها همچنین خطرات شدیدتر برای کودکان را گزارش می‌دهند، جایی که آسیب می‌تواند به سرعت پس از انتشار محتوا افزایش یابد.

چه چیزی پشت فشار گزارش شده پنتاگون بر شرکت آنتروپیک در مورد استفاده نظامی از کلود وجود دارد؟

رویترز گزارش می‌دهد که وزیر دفاع ایالات متحده قرار است برای مذاکرات جدی‌تر در مورد استفاده نظامی از کلود با مدیرعامل شرکت آنتروپیک دیدار کند. طبق گزارش‌ها، پنتاگون می‌خواهد ارائه‌دهندگان اصلی هوش مصنوعی، مدل‌هایی را با محدودیت‌های کمتر در شبکه‌های طبقه‌بندی‌شده در دسترس قرار دهند. آنتروپیک در برابر سهل‌انگاری در حفاظت‌ها مقاومت کرده و به اختلاف بر سر حفاظ‌ها اشاره کرده است. به نظر می‌رسد این رابطه پرتنش است، اگرچه هر دو طرف می‌گویند مذاکرات همچنان سازنده است.

چه چیزی در یادداشت‌های انتشار ChatGPT در مورد طول متن حالت «فکر کردن» تغییر کرده است؟

یادداشت‌های انتشار OpenAI به یک پنجره زمینه گسترده‌تر برای حالت «فکر کردن» اشاره می‌کند که امکان قرار دادن متن بیشتر در یک رشته را فراهم می‌کند. در عمل، این می‌تواند به اسناد طولانی، پروژه‌های پیچیده و تحقیقات چند مرحله‌ای که جزئیات اولیه در آنها اهمیت دارد، کمک کند. این یک ارتقاء به سبک لوله‌کشی است تا یک ویژگی پر زرق و برق. مزیت اصلی، جزئیات از دست رفته کمتر در جلسات طولانی‌تر است.

اخبار دیروز هوش مصنوعی: ۲۱ فوریه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ