در مورد هوش مصنوعی متنباز طوری صحبت میشود که انگار یک کلید جادویی است که همه چیز را باز میکند. اما اینطور نیست. اما این است که میتوانید آنها را درک کنید، بهبود بخشید و بدون التماس به فروشنده برای تغییر آن، آنها را عرضه کنید. اگر تا به حال فکر کردهاید که «باز» به چه معناست، بازاریابی چیست و چگونه میتوان از آن در محل کار استفاده کرد، به جای درستی آمدهاید. یک قهوه بنوشید - این مطلب مفید خواهد بود، و شاید کمی هم نظر شخصی باشد ☕🙂.
مقالاتی که شاید بعد از این مطلب دوست داشته باشید بخوانید:
🔗 چگونه هوش مصنوعی را در کسب و کار خود بگنجانید
گامهای عملی برای ادغام ابزارهای هوش مصنوعی برای رشد هوشمندانهتر کسبوکار
🔗 چگونه از هوش مصنوعی برای افزایش بهرهوری استفاده کنیم
گردشهای کاری مؤثر هوش مصنوعی را کشف کنید که در زمان صرفهجویی کرده و کارایی را افزایش میدهند.
🔗 مهارتهای هوش مصنوعی چیست؟
مهارتهای کلیدی هوش مصنوعی را که برای متخصصان آینده ضروری است، بیاموزید.
🔗 هوش مصنوعی گوگل ورتکس چیست؟
هوش مصنوعی ورتکس گوگل و چگونگی سادهسازی یادگیری ماشینی توسط آن را درک کنید.
هوش مصنوعی متنباز چیست؟ 🤖🔓
در سادهترین حالت، هوش مصنوعی متنباز به این معنی است که اجزای یک سیستم هوش مصنوعی - کد، وزنهای مدل، خطوط داده، اسکریپتهای آموزشی و مستندات - تحت مجوزهایی منتشر میشوند که به هر کسی اجازه میدهد از آنها استفاده کند، مطالعه کند، تغییر دهد و آنها را با رعایت شرایط معقول به اشتراک بگذارد. این زبان آزادی اصلی از تعریف متنباز و اصول دیرینه آزادی کاربر آن ناشی میشود [1]. نکته جالب در مورد هوش مصنوعی این است که اجزای بیشتری از کد وجود دارد.
برخی پروژهها همه چیز را منتشر میکنند: کد، منابع داده آموزشی، دستور العملها و مدل آموزش دیده. برخی دیگر فقط وزنها را با مجوز سفارشی منتشر میکنند. اکوسیستم گاهی اوقات از اختصارات نامرتب استفاده میکند، بنابراین بیایید در بخش بعدی آن را مرتب کنیم.
هوش مصنوعی متنباز در مقابل وزنهای باز در مقابل دسترسی آزاد 😅
اینجا جایی است که مردم پشت سر هم حرف میزنند.
-
هوش مصنوعی متنباز - این پروژه در سراسر مجموعه خود از اصول متنباز پیروی میکند. کد تحت مجوز تأیید شده توسط OSI است و شرایط توزیع، امکان استفاده، اصلاح و اشتراکگذاری گسترده را فراهم میکند. روح حاکم بر اینجا، همان چیزی است که OSI توصیف میکند: آزادی کاربر در اولویت است [1][2].
-
وزنهای باز — وزنهای مدل آموزشدیده قابل دانلود هستند (اغلب رایگان) اما تحت شرایط سفارشی. شما شرایط استفاده، محدودیتهای توزیع مجدد یا قوانین گزارشدهی را مشاهده خواهید کرد. خانواده Llama از Meta این موضوع را نشان میدهد: اکوسیستم کد تقریباً باز است، اما وزنهای مدل تحت مجوز خاصی با شرایط مبتنی بر استفاده ارائه میشوند [4].
-
دسترسی آزاد — شما میتوانید به یک API دسترسی پیدا کنید، شاید رایگان، اما وزنها را دریافت نمیکنید. برای آزمایش مفید است، اما متنباز نیست.
این فقط به معنای لغوی نیست. حقوق و خطرات شما در این دستهها تغییر میکند. کار فعلی OSI در مورد هوش مصنوعی و باز بودن، این تفاوتهای ظریف را به زبان ساده توضیح میدهد [2].
چه چیزی هوش مصنوعی متنباز را واقعاً خوب میکند؟ ✅
بیایید سریع و صادق باشیم.
-
قابلیت حسابرسی - شما میتوانید کد را بخوانید، دستورالعملهای دادهها را بررسی کنید و مراحل آموزش را ردیابی کنید. این به انطباق، بررسیهای ایمنی و کنجکاوی قدیمی کمک میکند. چارچوب مدیریت ریسک هوش مصنوعی NIST، مستندسازی و شیوههای شفافیت را تشویق میکند که پروژههای باز میتوانند راحتتر آنها را برآورده کنند [3].
-
سازگاری — شما در نقشه راه یک فروشنده محصور نیستید. آن را تغییر دهید. وصله پینه کنید. ارسال کنید. لگو، نه پلاستیک چسبی.
-
کنترل هزینه — وقتی ارزانتر است، خودتان میزبان باشید. وقتی ارزانتر نیست، به فضای ابری متصل شوید. سختافزارها را با هم ترکیب و تطبیق دهید.
-
سرعت جامعه - اشکالات برطرف میشوند، ویژگیها به وجود میآیند، و شما از همسالان خود یاد میگیرید. گاهی اوقات نامرتب؟ اغلب اوقات پربار؟
-
شفافیت در مدیریت - مجوزهای باز واقعی قابل پیشبینی هستند. این را با شرایط خدمات API مقایسه کنید که بیسروصدا سهشنبهها تغییر میکنند.
آیا بینقص است؟ نه. اما بدهبستانها خوانا هستند - بیشتر از آنچه از بسیاری از سرویسهای جعبه سیاه دریافت میکنید.
پشته هوش مصنوعی متنباز: کد، وزنها، دادهها و چسب 🧩
یک پروژه هوش مصنوعی را مانند یک لازانیای عجیب و غریب در نظر بگیرید. لایهها در همه جا وجود دارند.
-
چارچوبها و زمانهای اجرا - ابزارهایی برای تعریف، آموزش و ارائه مدلها (مثلاً PyTorch، TensorFlow). جوامع و اسناد سالم بیش از نامهای تجاری اهمیت دارند.
-
معماریهای مدل - طرح کلی: مبدلها، مدلهای انتشار، تنظیمات بازیابی-تقویتشده.
-
وزنها - پارامترهایی که در طول آموزش آموخته میشوند. «باز بودن» در اینجا به توزیع مجدد و حقوق استفاده تجاری بستگی دارد، نه فقط قابلیت دانلود.
-
دادهها و دستور العملها - اسکریپتهای گردآوری، فیلترها، افزونهها، برنامههای آموزشی. شفافیت در اینجا برای تکرارپذیری حکم طلا را دارد.
-
ابزارسازی و هماهنگسازی - سرورهای استنتاج، پایگاههای داده برداری، مهارهای ارزیابی، مشاهدهپذیری، CI/CD.
-
صدور مجوز - ستون فقرات بیسروصدایی که تصمیم میگیرد شما واقعاً چه کاری میتوانید انجام دهید. اطلاعات بیشتر در ادامه آمده است.
صدور مجوز ۱۰۱ برای هوش مصنوعی متنباز 📜
لازم نیست وکیل باشید. فقط کافی است الگوها را تشخیص دهید.
-
مجوزهای کد مجاز — MIT، BSD، Apache-2.0. آپاچی شامل یک حق ثبت اختراع صریح است که بسیاری از تیمها از آن قدردانی میکنند [1].
-
کپیلفت — خانوادهی GPL ایجاب میکند که مشتقات تحت همان مجوز باز بمانند. قدرتمند است، اما در معماری خود برای آن برنامهریزی کنید.
-
مجوزهای خاص مدل - برای وزنها و مجموعه دادهها، مجوزهای سفارشی مانند خانواده مجوزهای هوش مصنوعی مسئول (OpenRAIL) را مشاهده خواهید کرد. این مجوزها و محدودیتهای مبتنی بر استفاده را رمزگذاری میکنند؛ برخی استفاده تجاری را به طور گسترده مجاز میدانند، برخی دیگر محافظهایی در برابر سوءاستفاده اضافه میکنند [5].
-
Creative Commons برای دادهها — CC-BY یا CC0 برای مجموعه دادهها و اسناد رایج هستند. انتساب میتواند در مقیاس کوچک قابل مدیریت باشد؛ در مراحل اولیه یک الگو بسازید.
نکته حرفهای: یک صفحه کامل از هر وابستگی، مجوز آن و اینکه آیا توزیع مجدد تجاری مجاز است یا خیر، تهیه کنید. خستهکننده است؟ بله. ضروری است؟ باز هم بله.
جدول مقایسه: پروژههای محبوب هوش مصنوعی متنباز و نقاط قوت آنها 📊
عمداً کمی نامرتب - نتهای واقعی این شکلی هستند
| ابزار / پروژه | برای چه کسی است؟ | قیمت مناسب | چرا خوب کار میکند |
|---|---|---|---|
| پایتورچ | محققان، مهندسان | رایگان | نمودارهای پویا، جامعه کاربری عظیم، مستندات قوی. در مرحله تولید، آزمایش شده و کاملاً بینقص. |
| تنسورفلو | تیمهای سازمانی، عملیات یادگیری ماشین | رایگان | حالت نمودار، سرویسدهی TF، عمق اکوسیستم. یادگیری سریعتر برای برخی، هنوز هم قوی. |
| مبدلهای چهره در آغوش گرفته | سازندگان با مهلتهای مشخص | رایگان | مدلهای از پیش آموزشدیده، خطوط لوله، مجموعه دادهها، تنظیم دقیق آسان. راستش را بخواهید، یک میانبر. |
| vLLM | تیمهای مادون قرمز | رایگان | سرویسدهی سریع LLM، حافظه نهان KV کارآمد، توان عملیاتی قوی در پردازندههای گرافیکی رایج. |
| لاما.cpp | تعمیرکاران، دستگاههای لبهای | رایگان | مدلها را به صورت محلی روی لپتاپها و تلفنها با قابلیت کوانتیزاسیون اجرا کنید. |
| لانگچین | توسعهدهندگان اپلیکیشن، نمونهسازان | رایگان | زنجیرهها، رابطها، عاملهای قابل ترکیب. اگر ساده نگه دارید، سریع برنده میشوید. |
| انتشار پایدار | خلاقان، تیمهای محصول | وزنههای آزاد | تولید تصویر به صورت محلی یا ابری؛ گردشهای کاری گسترده و رابطهای کاربری پیرامون آن. |
| اولاما | توسعهدهندگانی که عاشق رابطهای خط فرمان محلی هستند | رایگان | مدلهای محلیِ «بکشید و اجرا کنید». مجوزها بر اساس مدل کارت متفاوت هستند—مراقب باشید. |
بله، کلی «رایگان». هاستینگ، پردازندههای گرافیکی، فضای ذخیرهسازی و ساعات کاری رایگان نیستند.
چگونه شرکتها واقعاً از هوش مصنوعی متنباز در محل کار استفاده میکنند 🏢⚙️
شما دو حالت افراطی را خواهید شنید: یا همه باید همه چیز را خودشان میزبانی کنند، یا هیچ کس نباید. زندگی واقعی نرمتر است.
-
نمونهسازی سریع - برای اعتبارسنجی تجربه کاربری و تأثیر، با مدلهای بازِ مجاز شروع کنید. بعداً آنها را اصلاح کنید.
-
سرویس ترکیبی — برای تماسهای حساس به حریم خصوصی، از مدل میزبانیشده توسط VPC یا on-prem استفاده کنید. برای بارگذاری طولانی مدت یا ناگهانی، به یک API میزبانیشده برگردید. بسیار عادی است.
-
تنظیم دقیق برای وظایف محدود - انطباق دامنه اغلب بر مقیاس خام برتری دارد.
-
RAG در همه جا - تولید افزوده بازیابی با پایه گذاری پاسخ ها در داده های شما، توهمات را کاهش می دهد. پایگاه های داده برداری باز و آداپتورها این امر را قابل دسترسی می کنند.
-
لبه و آفلاین - مدلهای سبک کامپایل شده برای لپتاپها، تلفنها یا مرورگرها، سطوح محصول را گسترش میدهند.
-
انطباق و ممیزی - از آنجا که میتوانید جزئیات را بررسی کنید، ممیزها چیزی ملموس برای بررسی دارند. آن را با یک سیاست هوش مصنوعی مسئولانه که با دستههای RMF و راهنمای مستندسازی NIST مطابقت دارد، ترکیب کنید [3].
نکتهی کوچک میدانی: یک تیم SaaS که به حریم خصوصی اهمیت میدهد (کاربران متوسط بازار، اتحادیه اروپا) که من دیدهام، یک ساختار ترکیبی را اتخاذ کردهاند: مدل باز کوچک درون VPC برای ۸۰٪ درخواستها؛ و برای درخواستهای نادر و طولانی، به یک API میزبانیشده هجوم میآورند. آنها تأخیر مسیر مشترک را کاهش داده و کاغذبازیهای DPIA را ساده کردهاند - بدون اینکه اوضاع را به هم بریزند.
خطرات و مشکلاتی که باید برای آنها برنامه ریزی کنید 🧨
بیایید در این مورد مثل آدمهای بالغ رفتار کنیم.
-
رانش مجوز — یک مخزن MIT را شروع میکند، سپس وزنها به یک مجوز سفارشی منتقل میشوند. فهرست داخلی خود را بهروز نگه دارید، در غیر این صورت با یک سورپرایز انطباق مواجه خواهید شد [2][4][5].
-
منشأ دادهها - دادههای آموزشی با حقوق فازی میتوانند به مدلها وارد شوند. منابع را دنبال کنید و مجوزهای مجموعه دادهها را دنبال کنید، نه ارتعاشات [5].
-
امنیت — با مصنوعات مدل مانند هر زنجیره تأمین دیگری رفتار کنید: چکسامها، نسخههای امضا شده، SBOMها. حتی یک SECURITY.md حداقلی هم سکوت را شکست میدهد.
-
واریانس کیفیت — مدلهای باز بسیار متنوع هستند. با وظایف خود ارزیابی کنید، نه فقط با جدول امتیازات.
-
هزینه مادون قرمز پنهان - استنتاج سریع به پردازندههای گرافیکی، کوانتیزاسیون، دسته بندی و ذخیره سازی نیاز دارد. ابزارهای باز کمک میکنند؛ شما هنوز هم هزینه محاسبات را پرداخت میکنید.
-
بدهی حاکمیتی - اگر هیچکس چرخه عمر مدل را در اختیار نداشته باشد، پیکربندی به هم میریزد. یک چک لیست MLOps سبک، حکم طلا را دارد.
انتخاب سطح باز بودن مناسب برای مورد استفاده شما 🧭
یک مسیر تصمیمگیری کمی کج:
-
آیا نیاز به ارسال سریع با الزامات انطباق سبک دارید؟ با مدلهای بازِ سهلگیرانه، تنظیمات حداقلی و سرویس ابری شروع کنید.
-
به حریم خصوصی سختگیرانه یا آفلاین نیاز دارید ؟ یک پشته باز با پشتیبانی خوب، استنتاج خود میزبان انتخاب کنید و مجوزها را با دقت بررسی کنید.
-
به حقوق تجاری گسترده نیاز دارید ؟ کد منطبق با OSI به علاوه مجوزهای مدل را ترجیح میدهید که صریحاً اجازه استفاده تجاری و توزیع مجدد را میدهند [1][5].
-
به انعطافپذیری در تحقیق نیاز دارید ؟ برای تکرارپذیری و اشتراکگذاری، از ابتدا تا انتها، از جمله دادهها، را مجاز بدانید.
-
مطمئن نیستید؟ هر دو را امتحان کنید. مسلماً یک مسیر در عرض یک هفته بهتر خواهد بود.
چگونه یک پروژه هوش مصنوعی متنباز را مانند یک حرفهای ارزیابی کنیم 🔍
یک چک لیست سریع که گاهی اوقات روی یک دستمال سفره نگه میدارم.
-
وضوح مجوز - کد مورد تأیید OSI است؟ در مورد وزنها و دادهها چطور؟ آیا محدودیتی در استفاده وجود دارد که مدل کسبوکار شما را [1][2][5] به خطر بیندازد؟
-
مستندات - نصب، شروع سریع، مثالها، عیبیابی. مستندات، گویای فرهنگ هستند.
-
آهنگ انتشار - انتشارها و گزارش تغییرات برچسبگذاری شده، نشاندهندهی ثبات هستند؛ انتشارهای پراکنده، نشاندهندهی قهرمانی هستند.
-
معیارها و ارزیابیها - وظایف واقعبینانه هستند؟ ارزیابیها قابل اجرا هستند؟
-
نگهداری و مدیریت - صاحبان کد مشخص، اولویتبندی مسائل، پاسخگویی روابط عمومی
-
سازگاری با اکوسیستم - به خوبی با سختافزار، ذخیرهسازی دادهها، ثبت وقایع و احراز هویت شما هماهنگ میشود.
-
وضعیت امنیتی - مصنوعات امضا شده، اسکن وابستگیها، مدیریت CVE.
-
سیگنال انجمن — بحثها، پاسخهای انجمن، نمونههایی از مخازن.
برای هماهنگی گستردهتر با رویههای قابل اعتماد، فرآیند خود را با دستههای NIST AI RMF و مصنوعات مستندسازی [3] تطبیق دهید.
بررسی عمیق ۱: بخش آشفتهی مجوزهای مدلینگ 🧪
برخی از توانمندترین مدلها در دسته «وزنهای باز با شرایط» قرار میگیرند. آنها قابل دسترسی هستند، اما با محدودیتهای استفاده یا قوانین توزیع مجدد. اگر محصول شما به بستهبندی مجدد مدل یا ارسال آن به محیطهای مشتری وابسته نباشد، این میتواند خوب باشد. اگر به این نیاز دارید ، خود را بر اساس واقعی ، نه پست وبلاگ [4][5]، ترسیم کنید
مجوزهایی به سبک OpenRAIL سعی در ایجاد تعادل دارند: تحقیق و اشتراکگذاری آزاد را تشویق میکنند، در حالی که سوءاستفاده را منع میکنند. نیت خیر است؛ تعهدات همچنان بر عهده شماست. شرایط را بخوانید و تصمیم بگیرید که آیا شرایط با میزان ریسکپذیری شما مطابقت دارد یا خیر [5].
بررسی عمیق ۲: شفافیت دادهها و افسانه تکرارپذیری 🧬
«بدون دادههای کامل، هوش مصنوعی متنباز جعلی است.» نه کاملاً. منشأ و دستور العملها میتوانند شفافیت معناداری را حتی زمانی که برخی از مجموعه دادههای خام محدود شدهاند، ارائه دهند. شما میتوانید فیلترها، نسبتهای نمونهبرداری و روشهای اکتشافی پاکسازی را به اندازه کافی خوب مستند کنید تا تیم دیگری بتواند نتایج را تقریبی کند. تکرارپذیری کامل خوب است. شفافیت عملی اغلب کافی است [3][5].
وقتی مجموعه دادهها باز هستند، استفاده از مجوزهای Creative Commons مانند CC-BY یا CC0 رایج است. انتساب در مقیاس بزرگ میتواند ناخوشایند باشد، بنابراین نحوه مدیریت آن را از همان ابتدا استاندارد کنید.
بررسی عمیق ۳: MLOps کاربردی برای مدلهای باز 🚢
ارسال یک مدل باز مانند ارسال هر سرویس دیگری است، به علاوه چند نکتهی عجیب و غریب.
-
لایه سرویسدهی - سرورهای استنتاج تخصصی، دستهبندی، مدیریت حافظه نهان KV و جریان توکن را بهینه میکنند.
-
کوانتیزاسیون — وزنهای کوچکتر → استنتاج ارزانتر و استقرار آسانتر لبه. بدهبستانهای کیفیت متفاوت هستند؛ با خود .
-
قابلیت مشاهده - با در نظر گرفتن حریم خصوصی، اعلانها/خروجیها را ثبت کنید. برای ارزیابی نمونه بگیرید. بررسیهای انحرافی را مانند آنچه برای یادگیری ماشین سنتی انجام میدادید، اضافه کنید.
-
بهروزرسانیها - مدلها میتوانند رفتار را به طور نامحسوس تغییر دهند؛ از قناریها استفاده کنید و یک بایگانی برای بازگشت به نسخههای قبلی و ممیزیها نگه دارید.
-
مهار ارزیابی — یک مجموعه ارزیابی مختص به وظیفه داشته باشید، نه فقط معیارهای کلی. درخواستهای خصمانه و بودجههای تأخیر را نیز در نظر بگیرید.
یک طرح اولیه کوچک: از صفر تا طرح آزمایشی قابل استفاده در ۱۰ مرحله 🗺️
-
یک وظیفه و معیار مشخص تعریف کنید. هنوز پلتفرمهای بزرگی وجود ندارد.
-
یک مدل پایهی مجاز انتخاب کنید که بهطور گسترده استفاده میشود و بهخوبی مستند شده است.
-
استنتاج محلی و یک API با پوشش نازک را کنار بگذارید. حوصله سر بر نگهش دارید.
-
بازیابی را به خروجیهای زمینی دادههای خود اضافه کنید.
-
یک مجموعه ارزیابی کوچک برچسبگذاری شده آماده کنید که کاربران، مشکلات و همه چیز شما را منعکس کند.
-
فقط در صورتی که ارزیابی (eval) به شما بگوید، تنظیم دقیق یا تنظیم سریع انجام دهید.
-
اگر تأخیر یا هزینه کمی وجود دارد، آن را اندازهگیری کنید. کیفیت را دوباره اندازهگیری کنید.
-
گزارشگیری، درخواستهای گروهبندی قرمز و سیاست سوءاستفاده را اضافه کنید.
-
با یک پرچم ویژگی، دروازه را باز کنید و به یک گروه کوچک منتشر کنید.
-
تکرار کنید. بهبودهای کوچک را هفتگی ارسال کنید... یا وقتی واقعاً بهتر شد.
افسانههای رایج در مورد هوش مصنوعی متنباز، که کمی بیاساس هستند 🧱
-
افسانه: مدلهای باز همیشه بدتر هستند. واقعیت: برای وظایف هدفمند با دادههای مناسب، مدلهای باز تنظیمشده میتوانند از مدلهای میزبانیشده بزرگتر بهتر عمل کنند.
-
افسانه: باز بودن به معنای ناامنی است. واقعیت: باز بودن میتواند بررسی دقیق را بهبود بخشد. امنیت به شیوهها بستگی دارد، نه به پنهانکاری [3].
-
افسانه: مجوز مهم نیست اگر رایگان باشد. واقعیت: وقتی رایگان باشد بیشترین
هوش مصنوعی متنباز 🧠✨
هوش مصنوعی متنباز یک مذهب نیست. مجموعهای از آزادیهای عملی است که به شما امکان میدهد با کنترل بیشتر، مدیریت واضحتر و تکرار سریعتر، مدلی بسازید. وقتی کسی میگوید یک مدل «باز» است، بپرسید کدام لایهها باز هستند: کد، وزنها، دادهها یا فقط دسترسی. مجوز را بخوانید. آن را با مورد استفاده خود مقایسه کنید. و سپس، مهمتر از همه، آن را با حجم کار واقعی خود آزمایش کنید.
به طرز عجیبی، بهترین بخش، فرهنگی است: پروژههای متنباز، مشارکت و بررسی دقیق را دعوت میکنند، که منجر به بهبود نرمافزار و افراد میشود. ممکن است متوجه شوید که حرکت برنده، بزرگترین مدل یا پر زرق و برقترین معیار نیست، بلکه حرکتی است که بتوانید هفته آینده آن را درک، اصلاح و بهبود بخشید. این قدرت آرام هوش مصنوعی متنباز است - نه یک راه حل جادویی، بلکه بیشتر شبیه یک ابزار چندکاره کهنه و فرسوده است که مدام اوضاع را نجات میدهد.
خیلی طولانی بود نخوندم 📝
هوش مصنوعی متنباز درباره آزادی معنادار برای استفاده، مطالعه، اصلاح و اشتراکگذاری سیستمهای هوش مصنوعی است. این آزادی در لایههای مختلف خود را نشان میدهد: چارچوبها، مدلها، دادهها و ابزارها. متنباز را با وزنهای باز یا دسترسی آزاد اشتباه نگیرید. مجوز را بررسی کنید، با وظایف واقعی خود ارزیابی کنید و از روز اول برای امنیت و مدیریت طراحی کنید. این کار را انجام دهید و سرعت، کنترل و یک نقشه راه آرامتر به دست خواهید آورد. به طرز شگفتآوری نادر، صادقانه بگویم بیقیمت 🙃.
منابع
[1] ابتکار متنباز - تعریف متنباز (OSD): ادامه مطلب
[2] OSI - بررسی عمیق هوش مصنوعی و باز بودن: ادامه مطلب
[3] NIST - چارچوب مدیریت ریسک هوش مصنوعی: ادامه مطلب
[4] مجوز مدل متا - لاما: ادامه مطلب
[5] مجوزهای مسئول هوش مصنوعی (OpenRAIL): ادامه مطلب