اخبار هوش مصنوعی، ۱۸ ژانویه ۲۰۲۶

خلاصه اخبار هوش مصنوعی: ۱۸ ژانویه ۲۰۲۶

💰 سکویا بی‌سروصدا وارد مسابقه‌ی بزرگ آنتروپیک می‌شود

سکویا - که از قبل با چندین آزمایشگاه بزرگ هوش مصنوعی در ارتباط بوده است - طبق گزارش‌ها به یک طرح عظیم افزایش سرمایه از سوی آنتروپیک می‌پیوندد. این نوعی حرکت است که کل بحث «منازعات، بدون منازعات» را، چه کسی اعتراف کند چه نکند، به سطح بالاتری می‌برد.

گفته می‌شود این دور شامل بررسی‌های سنگین دیگری نیز خواهد بود و آنتروپیک را بیشتر به آن مسیر ارزش‌گذاری کلان و سطح بالا سوق می‌دهد. حس حباب همچنان پابرجاست. این وضعیت همچنین می‌تواند به طرز آزاردهنده‌ای به روال عادی جدید تبدیل شود.

📢 ChatGPT این بار واقعاً با تبلیغات لاس می‌زند

گفته می‌شود OpenAI در حال آزمایش تبلیغات برای برخی از کاربران آمریکایی در سطوح پایین‌تر است، در حالی که سطوح بالاتر بدون تبلیغات باقی می‌مانند. وعده این است که تبلیغات بر پاسخ‌ها تأثیری نخواهند گذاشت - در تئوری اطمینان‌بخش است، حتی اگر واکنش اعتماد کمی تغییر کند.

معنای ضمنی بزرگتر ساده است: استنتاج پرهزینه است، و ممکن است اشتراک‌ها به تنهایی همه چیز را برای همیشه پوشش ندهند... یا حداقل اینطور به نظر می‌رسد. با این حال، اولین باری که عبارت «حمایت‌شده» را در نزدیکی یک چت‌بات می‌بینید، چیزی در ذهنتان تغییر می‌کند. فضا عوض می‌شود.

📚 ناشران سعی می‌کنند در دعوای حقوقی آموزش هوش مصنوعی گوگل شرکت کنند

گروهی از ناشران در تلاشند تا به دادخواستی بپیوندند که گوگل را به استفاده از آثار دارای حق چاپ برای آموزش سیستم‌های هوش مصنوعی خود متهم می‌کند. این دعوای حقوقی همچنان در حال گسترش است، مانند ترک در یخی که مدام صدایش را می‌شنوید اما نمی‌توانید آن را دقیقاً پیدا کنید.

اگر دادگاه به آنها اجازه ورود بدهد، پرونده می‌تواند در مورد معنای «اجازه» و «پرداخت» برای داده‌های آموزشی دقیق‌تر شود. همه خواهان سابقه قضایی هستند - بدیهی است که ترجیحاً سابقه‌ای به نفع خودشان باشد.

🕳️ طبق گزارش‌ها، ترفند «تزریق سریع» از طریق داده‌های جلسات، Gemini را مختل می‌کند

محققان حمله‌ای به سبک «تزریق غیرمستقیم دستور» را توصیف کردند که در آن دستورالعمل‌های مخرب در محتوای به ظاهر عادی پنهان می‌شوند، سپس یک دستیار بعداً وقتی کاربر چیزی بی‌ضرر می‌پرسد، آنها را دنبال می‌کند. نه بدافزاری، نه جادویی - فقط متن مسلح، به طرز عجیبی زیبا و در عین حال تا حدودی زننده.

این یادآوری است که «LLM متن غیرقابل اعتماد را می‌خواند» یک ویژگی جذاب نیست - این یک سطح کاملاً تهدیدآمیز است. مثل این است که تمام روز اجازه دهید غریبه‌ها یادداشت‌هایی را در جیب شما بگذارند، سپس وقتی یکی از آنها تله است، غافلگیر شوید.

🎮 مدیرعامل ریزر می‌گوید گیمرها «از قبل هوش مصنوعی را دوست دارند» - آنها فقط از این برچسب متنفرند

سخنرانی ریزر در CES به هوش مصنوعی به عنوان ابزاری کاربردی برای گردش کار توسعه‌دهندگان بازی - تضمین کیفیت، تکرار و از این قبیل چیزها - به علاوه برخی مفاهیم دستیار-مانند که نیمی مفید و نیمی علمی-تخیلی به نظر می‌رسند، پرداخت.

آنها اساساً مشکل برندسازی را نیز می‌پذیرند: بازیکنان «هوش مصنوعی بی‌کیفیت» نمی‌خواهند، اما ابزارهای هوشمندتر و تجربیات روان‌تری می‌خواهند. اسمش را «کمک» بگذارید، مردم سر تکان می‌دهند. اسمش را «هوش مصنوعی» بگذارید، مردم گاهی اوقات به سمت چنگال‌ها می‌روند.

⚖️ دادگاهی قوانینی را برای وکلا در استفاده از هوش مصنوعی مولد وضع می‌کند

دادگاهی راهنمایی منتشر کرد که اساساً به این خلاصه می‌شود: بله، از genAI استفاده کنید - اما شما همچنان مالک اثر هستید. شما نمی‌توانید قضاوت حرفه‌ای خود را به یک تولیدکننده متن بسپارید و سپس وقتی با اطمینان چیزی اختراع کرد، شوکه شوید.

جالب اینجاست که افشای اطلاعات الزامی نیست مگر اینکه قاضی درخواست کند - اما پیام پاسخگویی، ستون فقرات واقعی آن است. هوش مصنوعی می‌تواند متن را آماده و مرتب کند... و همچنین مانند یک کارآموز بیش از حد مطمئن که استعداد داستان‌سرایی دارد، دچار توهم شود.

سوالات متداول

پیوستن سکویا به دور بزرگ سرمایه‌گذاری آنتروپیک چه معنایی برای سرمایه‌گذاری و مناقشات هوش مصنوعی دارد؟

این نشان می‌دهد که سرمایه‌گذاران بزرگ ممکن است به طور همزمان از چندین آزمایشگاه برتر هوش مصنوعی حمایت کنند، که همانطور که قابل پیش‌بینی است، بحث «درگیری، بدون درگیری» را دوباره زنده می‌کند. وقتی همان صندوق در چندین آزمایشگاه درگیر می‌شود، مردم شروع به بررسی دقیق انگیزه‌ها، دسترسی و مزایای رقابتی می‌کنند. این دور سرمایه‌گذاری عظیم گزارش شده همچنین گرایش به سمت بررسی‌های عظیم و ارزش‌گذاری‌های سرسام‌آور را برجسته می‌کند، حتی اگر «احساسات حبابی» هنوز در هوا معلق باشند.

آیا ChatGPT در نسخه‌های رایگان یا ارزان‌تر تبلیغات دریافت می‌کند و آیا این تبلیغات بر پاسخ‌ها تأثیر می‌گذارند؟

این گزارش می‌گوید OpenAI در حال آزمایش تبلیغات برای برخی از کاربران آمریکایی در سطوح پایین‌تر است، در حالی که سطوح بالاتر بدون تبلیغات باقی می‌مانند. همچنین ادعا می‌کند که تبلیغات بر پاسخ‌ها تأثیری نخواهد گذاشت، که روی کاغذ اطمینان‌بخش به نظر می‌رسد اما همچنان می‌تواند نحوه درک اعتماد مردم را تغییر دهد. معنای ضمنی این موضوع اقتصادی است: استنتاج گران است و اشتراک‌ها ممکن است برای همیشه همه چیز را پوشش ندهند.

چرا ناشران سعی دارند به دادخواست آموزش هوش مصنوعی گوگل بپیوندند؟

گروهی از ناشران به دنبال پیوستن به یک دادخواست هستند که ادعا می‌کند گوگل از آثار دارای حق چاپ برای آموزش سیستم‌های هوش مصنوعی استفاده کرده است. اگر دادگاه به آنها اجازه ورود دهد، پرونده می‌تواند در مورد اینکه «اجازه» و «پرداخت» برای داده‌های آموزشی چگونه باید باشد، دقیق‌تر شود. طرف‌های بیشتر اغلب به معنای فشار بیشتر برای یک سابقه روشن هستند - به خصوص در مورد اینکه چه کسی غرامت دریافت می‌کند و تحت چه شرایطی.

حمله «تزریق غیرمستقیم سریع» چیست و چرا در اخبار فناوری هوش مصنوعی اهمیت زیادی دارد؟

این حمله‌ای است که در آن دستورالعمل‌های مخرب در داخل محتوای به ظاهر عادی پنهان می‌شوند و یک دستیار بعداً وقتی کاربر درخواست بی‌ضرری می‌دهد، آنها را دنبال می‌کند. مشکل اصلی این است که این مدل متن غیرقابل اعتماد را می‌خواند و اسناد و پیام‌های روزمره را به یک سطح تهدید بالقوه تبدیل می‌کند. این روش جذاب است زیرا می‌تواند بدون بدافزارهای سنتی - فقط زبان مسلح جاسازی شده در محتوا - کار کند.

چرا گیمرها از برچسب «هوش مصنوعی» خوششان نمی‌آید اما همچنان ابزارهای هوش مصنوعی را می‌خواهند؟

مدیرعامل ریزر استدلال می‌کند که گیمرها از قبل مزایای عملی - تضمین کیفیت سریع‌تر، تکرار روان‌تر و کمک‌کننده‌های گردش کار - را دوست دارند، اما نسبت به برندسازی واکنش منفی نشان می‌دهند. نگرانی اغلب «شلوغی هوش مصنوعی» یا محتوایی است که کم‌زحمت و غیراصیل به نظر می‌رسد. تغییر شکل آن به عنوان «کمک» یا یک ویژگی کاربردی می‌تواند باعث شود که به جای جایگزینی خلاقیت، مانند ابزاری به نظر برسد که تجربه را بهبود می‌بخشد.

قوانین دادگاه برای وکلایی که از هوش مصنوعی مولد استفاده می‌کنند چه معنایی دارد و آیا آنها باید آن را فاش کنند؟

راهنمایی که شرح داده شده سرراست است: وکلا می‌توانند از هوش مصنوعی مولد استفاده کنند، اما همچنان مسئول کار هستند و نمی‌توانند قضاوت حرفه‌ای را به یک تولیدکننده متن برون‌سپاری کنند. خطر توهم وجود دارد - حقایق یا استنادهای ساختگی با اطمینان - بنابراین تأیید و پاسخگویی همچنان در مرکز توجه قرار دارند. طبق گزارش‌ها، افشای اطلاعات مگر با درخواست قاضی الزامی نیست، اما پیام همچنان این است: شما مالک نتیجه هستید.

اخبار دیروز هوش مصنوعی: ۱۷ ژانویه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ