⚖️ جان کریرو، خبرنگار نیویورک تایمز، از شرکتهای بزرگ هوش مصنوعی به دلیل آموزش از طریق کتاب شکایت کرد
جان کریرو و چند نویسنده دیگر با طرح این ادعا که شرکتهای Anthropic، Google، OpenAI، Meta، xAI و Perplexity مدلهایی را با استفاده از نسخههای کپیشده کتابهایشان آموزش دادهاند، شکایتی را مطرح کردند. نکته تاکتیکی واضحتر، تصمیم آنها برای اجتناب از طرح دعوی گروهی است، با این استدلال که برخورد گروهی میتواند بسیاری از ادعاها را در یک مسیر حل و فصل ارزانتر خلاصه کند.
🧠📜 نیویورک و کالیفرنیا شروع به تنظیم مقررات برای «همراهان هوش مصنوعی» میکنند
قانون نیویورک معتبر است و بر افشای مکرر «من انسان نیستم» به علاوه تشخیص و ارجاع در صورت ابراز افکار خودکشی توسط کاربران تکیه دارد. چارچوب کالیفرنیا گستردهتر است و حمایتهای شدیدتری از جوانان و الزامات قویتری در مورد پیشگیری، شفافیت و گزارشدهی دارد.
🏥🔍 لغو قوانین شفافیت هوش مصنوعی در حوزه سلامت میتواند باعث تخلیه بار کاری بیمارستانها شود
یک مقاله STAT پیشنهادی را مطرح میکند که انتظارات افشای اطلاعات برای ابزارهای هوش مصنوعی بالینی را کاهش میدهد و بار بررسی دقیق را به سیستمهای بهداشتی منتقل میکند. پیامد عملی این امر، کاوش بیشتر جزئیات اعتبارسنجی توسط فروشنده به فروشنده و کاهش «رسیدهای» استاندارد هنگام بروز سوالات مربوط به عملکرد است.
🏛️🤖 دولت بریتانیا نتایج را با استفاده از یک ابزار هوش مصنوعی که پاسخهای مشاوره را میخواند، منتشر میکند
وزارت حمل و نقل بریتانیا ارزیابی ابزار تحلیل مشاوره (CAT) خود را که با همکاری موسسه آلن تورینگ ساخته شده است، منتشر کرد تا تحلیل موضوعی را در حجم زیادی از پاسخهای مشاورهای متن آزاد انجام دهد. داستان در اینجا در مقیاس اداری است: بررسی انسانی همچنان نقش محوری دارد، در حالی که این ابزار خوشهبندی و کشف موضوع را تسریع میکند.
🏠🗣️ الکسا پلاس آمازون ادغامهای خدماتی بیشتری را اضافه میکند
آمازون با ادغامهایی مانند Angi، Expedia، Square و Yelp، در حال گسترش Alexa+ به قلمرو «دستیار به عنوان دروازه خدمات» است. شرط این است که مکالمه متقابل به جای تغییر برنامه، به رابطی برای رزرو، قیمتگذاری و برنامهریزی تبدیل شود.