شهریور 1404

چارچوب جدیدی که به عامل‌های LLM اجازه می‌دهد از تجربه بیاموزند -بدون نیاز به فاین‌تیونینگ

یک الگوی یادگیری جدید که توسط دانشگاه کالج لندن (UCL) و آزمایشگاه Ark Huawei Noah توسعه یافته است، عوامل مدل زبان بزرگ (LLM) را قادر می سازد تا به طور پویا با محیط خود سازگار شوند بدون اینکه مدل زبان زیربنایی را تنظیم کنند. این روش به نمایندگان اجازه می دهد تا با استفاده از […]

چارچوب جدیدی که به عامل‌های LLM اجازه می‌دهد از تجربه بیاموزند -بدون نیاز به فاین‌تیونینگ بیشتر بخوانید »

متا DeepConf را معرفی کرد: اولین روش هوش مصنوعی برای دستیابی به 99.9٪ در AIME 2025 با مدل‌های منبع باز با استفاده از GPT-OSS-120B

مدل‌های زبان بزرگ (LLM) استدلال هوش مصنوعی را متحول کرده‌اند، با تفکر موازی و روش‌های سازگاری خود که اغلب به عنوان پیشرفت‌های محوری ذکر می‌شوند. اما این تکنیک‌ها با یک چالش اساسی روبرو هستند: افزایش دقت در ازای هزینه محاسباتی بالا. تیمی از محققان Meta AI و UCSD روش جدیدی به نام Deep Think with

متا DeepConf را معرفی کرد: اولین روش هوش مصنوعی برای دستیابی به 99.9٪ در AIME 2025 با مدل‌های منبع باز با استفاده از GPT-OSS-120B بیشتر بخوانید »