اخبار هوش مصنوعی، 30 ژانویه 2026

خلاصه اخبار هوش مصنوعی: 30 ژانویه 2026

🧩 آنتروپیک با افزونه‌های Cowork، پیشنهادات سازمانی را تقویت می‌کند

آنتروپیک (Anthropic) با تمرکز بیشتر بر روی «هوش مصنوعی محل کار» و ارائه بلوک‌های سازنده به سبک افزونه، به تیم‌ها اجازه می‌دهد تا گردش‌های کاری تکرارپذیر را در چیزی شبیه به یک اپلیکیشن داخلی، بسته‌بندی کنند.

حال و هوای این کار کمتر شبیه «از یک چت‌بات بپرسید» و بیشتر شبیه «وظیفه را به یک دستیار نیمه‌ساختاریافته بسپارید» است، که البته کسل‌کننده به نظر می‌رسد تا زمانی که به یاد بیاورید کسل‌کننده جایی است که پول معمولاً در آن خرج می‌شود.

همچنین مجموعه‌ای از افزونه‌های آغازینِ تقریباً متن‌باز وجود دارد - اساساً دعوتی بی‌سروصدا برای کپی کردن، تغییر دادن و عرضه - و در عمل، اینگونه است که اکثر نرم‌افزارهای سازمانی ملموس می‌شوند.

🧪 پوتیک ۴۵.۸ میلیون دلار بودجه اولیه برای «متاسیستم» تقویت‌کننده LLM خود جذب کرد

پوئتیک (Poetiq) سرمایه اولیه هنگفتی را جذب کرد تا چیزی را بسازد که آن را «متاسیستم» برای LLMها می‌نامد - لایه‌ای که قرار است کیفیت خروجی را بهبود بخشد و در عین حال هزینه‌های زمان اجرا را نیز کاهش دهد.

نکته این است که شما نمونه‌هایی از وظایف را به آن می‌دهید و این به شکل‌گیری مدل به چیزی شبیه‌تر به عامل کمک می‌کند، با خودآزمایی و اصلاح مکرر. چیزی شبیه به دادن یک مدیر پروژه داخلی کوچک به مدل... کمی ایرادگیر، اما همچنان.

اگر جواب بدهد، عملاً قفلش باز شده است. اگر جواب ندهد، به جمع استارت‌آپ‌های «ما LLMها را درست کردیم» می‌پیوندد که معلوم شد... بیشترشان حال و هوای تبلیغاتی دارند.

💸 سرمایه‌گذاران خطرپذیر، مخفیانه در حال تأمین مالی استارتاپ‌های هوش مصنوعی هستند

باستن به عنوان برنده‌ی «لایه‌ی استنتاج» معرفی می‌شود - بخش نه چندان جذابی که در آن مدل‌ها در مرحله‌ی تولید اجرا می‌شوند، بودجه‌ها عجیب می‌شوند و مهندسان شروع به شمردن میلی‌ثانیه‌ها می‌کنند، انگار که آب را جیره‌بندی می‌کنند.

این مقاله مدعی یک دور سرمایه‌گذاری بزرگ با ارزش‌گذاری بالا است و به مشارکت انویدیا اشاره می‌کند، که یکی از آن سیگنال‌هایی است که مردم مانند بادنما با آن رفتار می‌کنند: هر جا انویدیا ظاهر شود، توجه به دنبال آن جلب می‌شود.

همچنین یادآوری می‌کند که تب طلا فقط به معنای ساخت بهترین مدل نیست - بلکه به معنای مقرون‌به‌صرفه کردن مدل برای روشن ماندن است.

🧾 وال استریت ژورنال گزارش می‌دهد که OpenAI برای عرضه اولیه سهام در سه ماهه چهارم آماده می‌شود

طبق گزارش‌ها، OpenAI در حال آماده‌سازی مقدمات برای یک جدول زمانی عرضه اولیه سهام (IPO) و همچنین ایجاد رهبری مالی است - اقداماتی از این دست که معمولاً به معنای «جدی گرفتن ما در مورد حیات بازار سهام» است، چه این را با صدای بلند بگویند و چه نه.

معنای ضمنی ماجرا کاملاً صریح است: هوش مصنوعیِ پیشگام گران است، رقابت شدید است، و وقتی بتوانید داستانی را به کل بازار بفروشید - نه فقط به تعداد انگشت‌شماری از حامیان خصوصی - جمع‌آوری سرمایه‌های هنگفت آسان‌تر می‌شود.

و بله، کمی سورئال است. «آزمایشگاه هوش مصنوعی» و «آمادگی برای عرضه اولیه سهام» در یک جمله هنوز مثل دو آهنربا هستند که به هم می‌چسبند.

🤝 ServiceNow و Anthropic از توافق خود در زمینه هوش مصنوعی رونمایی کردند

ServiceNow در حال همکاری است تا Claude را در مجموعه گردش کار خود جای دهد و این مدل را به عنوان یک گزینه پیش‌فرض در ابزارهایی که مردم از قبل برای اجرای فناوری اطلاعات، منابع انسانی، پشتیبانی - همه چیزهای غیرجذاب که شرکت‌ها را سرپا نگه می‌دارد - استفاده می‌کنند، قرار دهد.

داستان واقعی اینجا توزیع است: اگر هوش مصنوعی درون گردش کار قرار گیرد، لازم نیست از کاربران التماس کند که وجودش را به خاطر بیاورند. فقط... آنجاست و بی‌سروصدا از وظایف خسته‌کننده بهره می‌برد.

چنین معاملاتی همچنین روایت «ماموران در همه جا» را به جلو سوق می‌دهد - حتی اگر نیمی از اوقات «مامور» هنوز به معنای «رباتی باشد که فرم‌ها را سریع‌تر از شما تکمیل می‌کند»

🕵️♂️ گوگل «دید عامل» را به Gemini 3 Flash اضافه می‌کند

گوگل دیپ‌مایند در حال پیشبرد ایده «بینایی عامل» برای Gemini 3 Flash است - به مدل اجازه می‌دهد تا به جای اینکه وانمود کند تصویر را در نگاه اول کاملاً درک کرده است، به صورت چرخشی نگاه کند، عمل کند (از طریق ابزارهای کدنویسی) و سپس دوباره نگاه کند.

این به معنای حرکات عملی مانند بزرگنمایی در مناطق کوچک، برش یا اجرای محاسبات کوچک به عنوان بخشی از جریان استدلال است. این تقریباً به طرز خنده‌داری واضح است، اما همچنین - به شکلی آرام - گامی واقعی به سوی کاهش «پاسخ‌های غلط مطمئن» در وظایف بصری است.

اگر این الگو رواج پیدا کند، «مدل بینایی» دیگر به معنای «توصیف عکس» نیست و به معنای «بازجویی عکس» خواهد بود، که کمی تهاجمی به نظر می‌رسد... اما شاید این همان چیزی باشد که دقت به آن نیاز دارد.

سوالات متداول

افزونه‌های Cowork شرکت Anthropic چیستند و چگونه به تیم‌ها کمک می‌کنند؟

افزونه‌های Cowork به عنوان بلوک‌های سازنده به سبک افزونه طراحی شده‌اند که به تیم‌ها کمک می‌کنند وظایف تکرارپذیر را به گردش‌های کاری نیمه‌ساختاریافته تبدیل کنند. این ایده به جای «چت» آزاد، به واگذاری یک کار به یک دستیار که از یک الگوی ثابت پیروی می‌کند، نزدیک‌تر است. در بسیاری از پیاده‌سازی‌های هوش مصنوعی سازمانی، این ساختار تمایل به تسهیل پذیرش دارد زیرا خروجی‌ها قابل پیش‌بینی‌تر به نظر می‌رسند. «مجموعه آغازین» همچنین نشان می‌دهد که کپی کردن و سفارشی‌سازی الگوها بخشی از روش کار مورد نظر است.

هوش مصنوعی سازمانی چگونه از چت‌بات‌ها به گردش‌های کاری تعبیه‌شده تغییر می‌کند؟

خط مشی کلی این به‌روزرسانی‌ها، فاصله گرفتن هوش مصنوعی سازمانی از یک چت‌بات مستقل و حرکت به سمت چیزی است که با ابزارهای روزمره ادغام شود. وقتی هوش مصنوعی در یک گردش کار موجود قرار می‌گیرد، کاربران نیازی به یادآوری باز کردن یک رابط کاربری جداگانه ندارند. این امر معمولاً باعث استفاده پایدار، به ویژه برای کارهای معمول فناوری اطلاعات، منابع انسانی و پشتیبانی می‌شود. تأکید بر قابلیت اطمینان و تکرارپذیری است، نه نوآوری.

همکاری ServiceNow و Anthropic در عمل به چه معناست؟

این همکاری به عنوان ادغام کلود در مجموعه گردش کار ServiceNow ارائه می‌شود و آن را به گزینه‌ای پیش‌فرض در سیستم‌هایی که مردم از قبل استفاده می‌کنند، تبدیل می‌کند. این امر در درجه اول به عنوان یک نمایش توزیع تلقی می‌شود: هوش مصنوعی در جایی ظاهر می‌شود که تیکت‌ها، درخواست‌ها و تاییدیه‌ها از قبل قرار دارند. در بسیاری از سازمان‌ها، این جایی است که کارهای غیرجذاب اما با حجم بالا انباشته می‌شوند. ارزش این همکاری کمتر در مورد دموهای پر زرق و برق و بیشتر در مورد حذف بی‌سروصدای مراحل خسته‌کننده است.

«فراسیستم» Poetiq برای LLMها قرار است چه کاری انجام دهد؟

Poetiq در حال ارائه لایه‌ای است که هدف آن بهبود کیفیت خروجی و در عین حال کاهش هزینه‌های زمان اجرا است و این کار را با شکل‌دهی مدل‌ها با مثال‌های وظایف و خودآزمایی تکراری انجام می‌دهد. آن را به عنوان اضافه کردن یک حلقه اصلاح در نظر بگیرید، به طوری که سیستم بتواند پاسخ‌ها را قبل از رسیدن به نسخه نهایی، تأیید و تنظیم کند. در بسیاری از خطوط لوله، این شبیه رفتار عامل‌مانند است، بدون اینکه کاملاً به پاسخ‌های یک‌باره متکی باشد. این وعده عملی است: خطاهای کمتر و محاسبات کمتر هدر رفته.

چرا سرمایه‌گذاران در مورد «لایه استنتاج» و شرکت‌هایی مانند باستن هیجان‌زده هستند؟

«لایه استنتاج» جایی است که مدل‌ها در مرحله تولید اجرا می‌شوند و اینجاست که تأخیر، قابلیت اطمینان و هزینه به طرز دردناکی ملموس می‌شوند. این قطعه، Baseten را به عنوان یک برنده احتمالی در آن بخش نه چندان جذاب اما اساسی از پشته قرار می‌دهد. در بسیاری از استقرارها، بهترین مدل محدودیت اصلی نیست - بودجه و زمان پاسخ محدودیت اصلی هستند. مشارکت Nvidia اغلب به عنوان نشانه‌ای از اهمیت زاویه زیرساخت در نظر گرفته می‌شود.

«بینایی عامل» در Gemini 3 Flash چیست و چرا اهمیت دارد؟

«بینایی عامل» به این صورت توصیف می‌شود که به یک مدل اجازه می‌دهد تا به صورت حلقه‌ای نگاه کند، از طریق ابزارها (مانند کد) عمل کند و سپس دوباره نگاه کند. این امر امکان انجام حرکات عملی مانند بزرگنمایی، برش یا اجرای محاسبات کوچک را فراهم می‌کند، به جای اینکه وانمود کند نگاه اول کافی بوده است. هدف، کاهش اشتباهات مطمئن در وظایف بصری است، با انجام بازرسی‌های آگاهانه‌تر. اگر این الگو گسترش یابد، مدل‌های بینایی بیشتر شبیه محققان رفتار می‌کنند تا راویان.

اخبار دیروز هوش مصنوعی: ۲۹ ژانویه ۲۰۲۶

جدیدترین هوش مصنوعی را در فروشگاه رسمی دستیار هوش مصنوعی پیدا کنید

درباره ما

بازگشت به وبلاگ