🏗️ به گزارش پولیتیکو، ایالات متحده شرکتها را به سمت یک مرکز داده هوش مصنوعی جدید «فشرده» سوق میدهد ↗
بنا به گزارشها، ایالات متحده در تلاش است تا شرکتهای بزرگ را به امضای یک «قرارداد» جدید برای مراکز داده هوش مصنوعی ترغیب کند - اساساً مجموعهای از تعهدات در مورد نحوه مدیریت این ساختارهای محاسباتی عظیم.
جزئیات هنوز کمی مبهم (کلاسیک) هستند، اما مسیر آشنا به نظر میرسد: استانداردسازی انتظارات پیرامون انرژی، امنیت و احتمالاً گزارشدهی نیز - نسخهی مودبانهی سیاستی از «لطفاً نگذارید این وضعیت به آشوب تبدیل شود»
🎬 شکایت اتودسک از گوگل به دلیل نرمافزار فیلمسازی مبتنی بر هوش مصنوعی ↗
شرکت اتودسک از گوگل به دلیل استفاده از نام «فلو» شکایت کرده و میگوید که این شرکت قبلاً از «فلو» برای نرمافزار تولید و مدیریت جلوههای ویژه استفاده میکرده است - و ابزار فیلمسازی هوش مصنوعی گوگل نیز با همین نام تجاری عرضه شده است.
جزئیات دقیقتر این ادعا است که گوگل قبلاً پیشنهاد داده بود که این نام را تجاریسازی نخواهد کرد... سپس به هر حال به دنبال ثبت علائم تجاری رفت. مطمئناً این یک مبارزه برای علامت تجاری است، اما همچنین انرژی «پلتفرم بزرگ در مقابل ابزارساز متخصص» در مقیاس کوچک را نیز به همراه دارد.
🏥 مطالعه نشان میدهد هوش مصنوعی برای بیمارانی که به دنبال مشاوره پزشکی هستند، بهتر از سایر روشها نیست ↗
یک مطالعه جدید نشان داد که استفاده از هوش مصنوعی برای مشاوره پزشکی بیمار، از سایر رویکردها بهتر عمل نمیکند - که بسته به اینکه چقدر به بررسی علائم بیماری از زاویه دیگر نگاه کردهاید، تعجبآور نیست و کمی اطمینانبخش به نظر میرسد.
این به آن معنا نیست که هوش مصنوعی در مراقبتهای بهداشتی بیفایده است - فقط اینکه «از یک ربات بپرسید» به طور خودکار ارتقایی نسبت به گزینههای موجود محسوب نمیشود، به خصوص وقتی که دقت و ایمنی حرف اول را میزنند.
🩺 اپلیکیشنها و رباتهای مجهز به هوش مصنوعی به حوزه پزشکی هجوم آوردهاند. پزشکان سوالاتی دارند. ↗
یک تحقیق به بررسی چگونگی ورود اپلیکیشنهای سلامت هوش مصنوعی و چتباتها به فضاهای بالینی میپردازد - گاهی اوقات سریعتر از آنکه راهنمایی، نظارت یا شواهد سادهی قدیمی بتوانند با آن همگام شوند.
پزشکان نگرانیهایی را در مورد قابلیت اطمینان، آسیب به بیمار و اینکه چه کسی مسئول است، مطرح میکنند، زمانی که یک ربات توصیهای میدهد که به نظر مطمئن اما اشتباه میآید... مانند یک سیستم ناوبری ماهوارهای که اصرار دارد به داخل دریاچه رانندگی کنید، مگر اینکه دارو همراه داشته باشید.
📈 به گزارش CNBC، مدیرعامل OpenAI میگوید ChatGPT به رشد ماهانه بیش از 10 درصد بازگشته است ↗
مدیرعامل OpenAI ظاهراً گفته است که ChatGPT به رشد ماهانه بیش از ۱۰ درصد بازگشته است - که اگر فرض کنیم مرحله «همه قبلاً آن را امتحان کردهاند» به اوج خود رسیده است، اتفاق بزرگی است.
این نشان میدهد که یا کاربران جدید هنوز در حال ورود هستند، یا کاربران فعلی دلایل بیشتری برای ماندن پیدا میکنند - یا هر دو. در هر صورت، این محصول کمتر مانند یک مد زودگذر و بیشتر شبیه یک زیرساخت رفتار میکند... یا حداقل اینطور به نظر میرسد.
سوالات متداول
طرح پیشنهادی «فشرده» مرکز داده هوش مصنوعی که ایالات متحده در حال پیگیری آن است، چیست؟
این به عنوان مجموعهای از تعهدات توصیف میشود که شرکتهای بزرگ هنگام ساخت یا بهرهبرداری از مراکز داده بزرگ هوش مصنوعی با آنها موافقت میکنند. هدف، استانداردسازی انتظارات است تا این پروژههای محاسباتی عظیم در بین شرکتها پراکنده یا متناقض نشوند. در حالی که جزئیات هنوز نامشخص به نظر میرسند، به نظر میرسد تأکید بر حوزه عملی است: مصرف انرژی، امنیت و احتمالاً نوعی گزارشدهی.
چرا ایالات متحده میخواهد شرکتها یک قرارداد مرکز داده هوش مصنوعی امضا کنند؟
یک قرارداد میتواند انتظارات پایه مشترک را بدون مجبور کردن قانونگذاران به تدوین قانون جدید برای هر مورد خاص، تعیین کند. با گسترش سریع مراکز داده هوش مصنوعی، سیاستگذاران اغلب نگران تأثیر شبکه، خطرات امنیتی و شفافیت عملیاتی هستند. یک استراتژی رایج این است که بزرگترین بازیگران را زودتر هماهنگ کنیم، تا رویههای صحیح سریعتر گسترش یابند و در صورت بروز مشکل، ردیابی پاسخگویی آسانتر شود.
چه نوع تعهداتی میتواند در یک قرارداد مرکز داده هوش مصنوعی گنجانده شود؟
بر اساس آنچه مطرح شده است، تعهدات میتوانند شامل برنامهریزی انرژی (نحوه تأمین و مدیریت برق)، اقدامات امنیتی (فیزیکی و سایبری) و نوعی گزارشدهی یا افشا باشند. در بسیاری از خطوط لوله، گزارشدهی به لایه «اجرایی-لایت» تبدیل میشود که استانداردها را خوانا و قابل اندازهگیری میکند. اگر این قرارداد داوطلبانه باشد، این تعهدات ممکن است به عنوان دستورالعملهایی تنظیم شوند که بعداً به شکلگیری مقررات کمک میکنند.
دعوی حقوقی علیه ابزار فیلمسازی هوش مصنوعی گوگل به نام «فلو» چیست؟
شرکت اتودسک از گوگل به دلیل نام «فلو» شکایت کرده و استدلال میکند که اتودسک قبلاً از «فلو» برای نرمافزار تولید و مدیریت جلوههای ویژه استفاده کرده است. این اختلاف به عنوان یک اختلاف علامت تجاری و برندسازی مطرح شده است، در کنار این ادعا که گوگل قبلاً پیشنهاد کرده بود که این نام را تجاریسازی نخواهد کرد اما بعداً به دنبال ثبت علائم تجاری رفت. این پروندهها اغلب به اولویت برند و احتمال سردرگمی مربوط میشوند.
اینکه هوش مصنوعی برای مشاوره پزشکی به بیمار بهتر از سایر روشها نبود، به چه معناست؟
این نشان میدهد که «پرسیدن از یک ربات» به طور خودکار دقیقتر یا ایمنتر از روشهای موجود برای راهنمایی گرفتن بیماران نیست. اگر نگران پاسخهای بیش از حد مطمئن از سوی بررسیکنندگان علائم یا رباتهای چت هستید، این میتواند اطمینانبخش باشد. این موضوع ارزش بالقوه هوش مصنوعی در مراقبتهای بهداشتی را رد نمیکند، اما بر نیاز به شواهد، نظارت و ادغام دقیق در مواردی که اشتباهات میتوانند باعث آسیب شوند، تأکید میکند.
چرا پزشکان نگران اپلیکیشنهای سلامت و چتباتهای مبتنی بر هوش مصنوعی هستند؟
پزشکان نگران قابلیت اطمینان، آسیب به بیمار و اینکه چه کسی مسئول است، زمانی که یک ابزار توصیههای مطمئن اما نادرستی ارائه میدهد، هستند. نگرانی فقط دقت نیست؛ بلکه نحوه تفسیر خروجیها توسط بیماران و اینکه آیا سیستم افراد را به سمت خودمدیریتی ناامن سوق میدهد یا خیر نیز هست. در محیطهای بالینی، مسئولیت نامشخص میتواند به یک خطر بزرگ تبدیل شود: بیماران ممکن است به ابزار اعتماد کنند، پزشکان ممکن است آن را کنترل نکنند و راهنماییها ممکن است از پذیرش عقب بمانند.