اخبار هوش مصنوعی، ۹ فوریه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۹ فوریه ۲۰۲۶

🏗️ به گزارش پولیتیکو، ایالات متحده شرکت‌ها را به سمت یک مرکز داده هوش مصنوعی جدید «فشرده» سوق می‌دهد

بنا به گزارش‌ها، ایالات متحده در تلاش است تا شرکت‌های بزرگ را به امضای یک «قرارداد» جدید برای مراکز داده هوش مصنوعی ترغیب کند - اساساً مجموعه‌ای از تعهدات در مورد نحوه مدیریت این ساختارهای محاسباتی عظیم.

جزئیات هنوز کمی مبهم (کلاسیک) هستند، اما مسیر آشنا به نظر می‌رسد: استانداردسازی انتظارات پیرامون انرژی، امنیت و احتمالاً گزارش‌دهی نیز - نسخه‌ی مودبانه‌ی سیاستی از «لطفاً نگذارید این وضعیت به آشوب تبدیل شود»

🎬 شکایت اتودسک از گوگل به دلیل نرم‌افزار فیلم‌سازی مبتنی بر هوش مصنوعی

شرکت اتودسک از گوگل به دلیل استفاده از نام «فلو» شکایت کرده و می‌گوید که این شرکت قبلاً از «فلو» برای نرم‌افزار تولید و مدیریت جلوه‌های ویژه استفاده می‌کرده است - و ابزار فیلم‌سازی هوش مصنوعی گوگل نیز با همین نام تجاری عرضه شده است.

جزئیات دقیق‌تر این ادعا است که گوگل قبلاً پیشنهاد داده بود که این نام را تجاری‌سازی نخواهد کرد... سپس به هر حال به دنبال ثبت علائم تجاری رفت. مطمئناً این یک مبارزه برای علامت تجاری است، اما همچنین انرژی «پلتفرم بزرگ در مقابل ابزارساز متخصص» در مقیاس کوچک را نیز به همراه دارد.

🏥 مطالعه نشان می‌دهد هوش مصنوعی برای بیمارانی که به دنبال مشاوره پزشکی هستند، بهتر از سایر روش‌ها نیست

یک مطالعه جدید نشان داد که استفاده از هوش مصنوعی برای مشاوره پزشکی بیمار، از سایر رویکردها بهتر عمل نمی‌کند - که بسته به اینکه چقدر به بررسی علائم بیماری از زاویه دیگر نگاه کرده‌اید، تعجب‌آور نیست و کمی اطمینان‌بخش به نظر می‌رسد.

این به آن معنا نیست که هوش مصنوعی در مراقبت‌های بهداشتی بی‌فایده است - فقط اینکه «از یک ربات بپرسید» به طور خودکار ارتقایی نسبت به گزینه‌های موجود محسوب نمی‌شود، به خصوص وقتی که دقت و ایمنی حرف اول را می‌زنند.

🩺 اپلیکیشن‌ها و ربات‌های مجهز به هوش مصنوعی به حوزه پزشکی هجوم آورده‌اند. پزشکان سوالاتی دارند.

یک تحقیق به بررسی چگونگی ورود اپلیکیشن‌های سلامت هوش مصنوعی و چت‌بات‌ها به فضاهای بالینی می‌پردازد - گاهی اوقات سریع‌تر از آنکه راهنمایی، نظارت یا شواهد ساده‌ی قدیمی بتوانند با آن همگام شوند.

پزشکان نگرانی‌هایی را در مورد قابلیت اطمینان، آسیب به بیمار و اینکه چه کسی مسئول است، مطرح می‌کنند، زمانی که یک ربات توصیه‌ای می‌دهد که به نظر مطمئن اما اشتباه می‌آید... مانند یک سیستم ناوبری ماهواره‌ای که اصرار دارد به داخل دریاچه رانندگی کنید، مگر اینکه دارو همراه داشته باشید.

📈 به گزارش CNBC، مدیرعامل OpenAI می‌گوید ChatGPT به رشد ماهانه بیش از 10 درصد بازگشته است

مدیرعامل OpenAI ظاهراً گفته است که ChatGPT به رشد ماهانه بیش از ۱۰ درصد بازگشته است - که اگر فرض کنیم مرحله «همه قبلاً آن را امتحان کرده‌اند» به اوج خود رسیده است، اتفاق بزرگی است.

این نشان می‌دهد که یا کاربران جدید هنوز در حال ورود هستند، یا کاربران فعلی دلایل بیشتری برای ماندن پیدا می‌کنند - یا هر دو. در هر صورت، این محصول کمتر مانند یک مد زودگذر و بیشتر شبیه یک زیرساخت رفتار می‌کند... یا حداقل اینطور به نظر می‌رسد.

سوالات متداول

طرح پیشنهادی «فشرده» مرکز داده هوش مصنوعی که ایالات متحده در حال پیگیری آن است، چیست؟

این به عنوان مجموعه‌ای از تعهدات توصیف می‌شود که شرکت‌های بزرگ هنگام ساخت یا بهره‌برداری از مراکز داده بزرگ هوش مصنوعی با آنها موافقت می‌کنند. هدف، استانداردسازی انتظارات است تا این پروژه‌های محاسباتی عظیم در بین شرکت‌ها پراکنده یا متناقض نشوند. در حالی که جزئیات هنوز نامشخص به نظر می‌رسند، به نظر می‌رسد تأکید بر حوزه عملی است: مصرف انرژی، امنیت و احتمالاً نوعی گزارش‌دهی.

چرا ایالات متحده می‌خواهد شرکت‌ها یک قرارداد مرکز داده هوش مصنوعی امضا کنند؟

یک قرارداد می‌تواند انتظارات پایه مشترک را بدون مجبور کردن قانون‌گذاران به تدوین قانون جدید برای هر مورد خاص، تعیین کند. با گسترش سریع مراکز داده هوش مصنوعی، سیاست‌گذاران اغلب نگران تأثیر شبکه، خطرات امنیتی و شفافیت عملیاتی هستند. یک استراتژی رایج این است که بزرگترین بازیگران را زودتر هماهنگ کنیم، تا رویه‌های صحیح سریع‌تر گسترش یابند و در صورت بروز مشکل، ردیابی پاسخگویی آسان‌تر شود.

چه نوع تعهداتی می‌تواند در یک قرارداد مرکز داده هوش مصنوعی گنجانده شود؟

بر اساس آنچه مطرح شده است، تعهدات می‌توانند شامل برنامه‌ریزی انرژی (نحوه تأمین و مدیریت برق)، اقدامات امنیتی (فیزیکی و سایبری) و نوعی گزارش‌دهی یا افشا باشند. در بسیاری از خطوط لوله، گزارش‌دهی به لایه «اجرایی-لایت» تبدیل می‌شود که استانداردها را خوانا و قابل اندازه‌گیری می‌کند. اگر این قرارداد داوطلبانه باشد، این تعهدات ممکن است به عنوان دستورالعمل‌هایی تنظیم شوند که بعداً به شکل‌گیری مقررات کمک می‌کنند.

دعوی حقوقی علیه ابزار فیلم‌سازی هوش مصنوعی گوگل به نام «فلو» چیست؟

شرکت اتودسک از گوگل به دلیل نام «فلو» شکایت کرده و استدلال می‌کند که اتودسک قبلاً از «فلو» برای نرم‌افزار تولید و مدیریت جلوه‌های ویژه استفاده کرده است. این اختلاف به عنوان یک اختلاف علامت تجاری و برندسازی مطرح شده است، در کنار این ادعا که گوگل قبلاً پیشنهاد کرده بود که این نام را تجاری‌سازی نخواهد کرد اما بعداً به دنبال ثبت علائم تجاری رفت. این پرونده‌ها اغلب به اولویت برند و احتمال سردرگمی مربوط می‌شوند.

اینکه هوش مصنوعی برای مشاوره پزشکی به بیمار بهتر از سایر روش‌ها نبود، به چه معناست؟

این نشان می‌دهد که «پرسیدن از یک ربات» به طور خودکار دقیق‌تر یا ایمن‌تر از روش‌های موجود برای راهنمایی گرفتن بیماران نیست. اگر نگران پاسخ‌های بیش از حد مطمئن از سوی بررسی‌کنندگان علائم یا ربات‌های چت هستید، این می‌تواند اطمینان‌بخش باشد. این موضوع ارزش بالقوه هوش مصنوعی در مراقبت‌های بهداشتی را رد نمی‌کند، اما بر نیاز به شواهد، نظارت و ادغام دقیق در مواردی که اشتباهات می‌توانند باعث آسیب شوند، تأکید می‌کند.

چرا پزشکان نگران اپلیکیشن‌های سلامت و چت‌بات‌های مبتنی بر هوش مصنوعی هستند؟

پزشکان نگران قابلیت اطمینان، آسیب به بیمار و اینکه چه کسی مسئول است، زمانی که یک ابزار توصیه‌های مطمئن اما نادرستی ارائه می‌دهد، هستند. نگرانی فقط دقت نیست؛ بلکه نحوه تفسیر خروجی‌ها توسط بیماران و اینکه آیا سیستم افراد را به سمت خودمدیریتی ناامن سوق می‌دهد یا خیر نیز هست. در محیط‌های بالینی، مسئولیت نامشخص می‌تواند به یک خطر بزرگ تبدیل شود: بیماران ممکن است به ابزار اعتماد کنند، پزشکان ممکن است آن را کنترل نکنند و راهنمایی‌ها ممکن است از پذیرش عقب بمانند.

اخبار هوش مصنوعی دیروز: ۸ فوریه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ