پیشرفت در مدلهای «استدلال» هوش مصنوعی ممکن است به زودی کند شود

پیشرفت در مدلهای «استدلال» هوش مصنوعی ممکن است به زودی کند شود
به گزارش سیلاد و به نقل از تککرانچ، در ماههای اخیر، مدلهایی مانند O3 توسعهیافته توسط شرکت OpenAI، نقش مهمی در ارتقای قابل توجه معیارهای سنجش توانمندیهای هوش مصنوعی، بهویژه در زمینههایی چون مهارتهای ریاضی و برنامهنویسی ایفا کردهاند. این مدلها قادرند عملیات پیچیدهتری را برای حل مسائل به کار گیرند و در نتیجه، عملکرد بهتری ارائه دهند؛ هرچند اجرای آنها نسبت به مدلهای متعارف، زمانبرتر است.
فرایند توسعه این مدلهای استدلالی معمولاً با آموزش یک مدل پایه بر روی حجم وسیعی از دادهها آغاز میشود و در ادامه، با بهرهگیری از تکنیکی موسوم به یادگیری تقویتی، به مدل امکان داده میشود تا با دریافت بازخورد مؤثر، در حل مسائل دشوار بهینهتر عمل کند.
گزارش Epoch نشان میدهد که تاکنون آزمایشگاههای پیشرفته هوش مصنوعی، از جمله OpenAI، در مرحله یادگیری تقویتی از ظرفیت محاسباتی حداکثری خود استفاده نکردهاند. با این حال، این روند در حال دگرگونی است. به گفته OpenAI، برای آموزش مدل O3 حدود ده برابر محاسبات بیشتری نسبت به مدل پیشین یعنی O1 صرف شده است. همچنین طبق برآورد Epoch، بخش قابلتوجهی از این توان پردازشی به فرآیند یادگیری تقویتی اختصاص داشته است. دن رابرتز، پژوهشگر OpenAI، نیز اخیراً اعلام کرده است که در برنامههای آتی، اولویت اصلی این شرکت بهرهگیری از توان پردازشی بسیار بیشتر در بخش یادگیری تقویتی خواهد بود؛ حتی بیشتر از آنچه برای آموزش اولیه مدل در نظر گرفته میشود.
با این وجود، گزارش Epoch هشدار میدهد که در یادگیری تقویتی نیز سقفی برای افزایش ظرفیت محاسباتی وجود دارد.
جاش یو، تحلیلگر Epoch و نویسنده این گزارش، توضیح میدهد که عملکرد مدلهای پایه هوش مصنوعی بهطور میانگین هر سال چهار برابر بهبود مییابد، در حالی که این عدد برای یادگیری تقویتی، هر سه تا پنج ماه، ده برابر افزایش مییابد. او معتقد است که روند پیشرفت در مدلهای استدلالی، احتمالاً تا سال ۲۰۲۶ به نقطه اشباع خواهد رسید و با محدودیتهای کلی این حوزه همگرا میشود.
این تحلیل با در نظر گرفتن فرضیات گوناگون و بهرهگیری نسبی از دیدگاههای مدیران ارشد شرکتهای فعال در حوزه هوش مصنوعی تدوین شده است. با این حال، نویسنده گزارش تأکید میکند که چالشهایی فراتر از محدودیتهای محاسباتی، از جمله هزینههای بالای تحقیق و توسعه، ممکن است مانع از مقیاسپذیری مدلهای استدلالی شود.
یو در ادامه مینویسد: «چنانچه انجام تحقیقات مستمر مستلزم صرف هزینههای اضافی و قابل توجه باشد، ممکن است مدلهای استدلالی به سطح مقیاسپذیری مورد انتظار نرسند. در این میان، رشد سریع ظرفیتهای محاسباتی میتواند نقشی حیاتی در پیشرفت این مدلها ایفا کند، از این رو، پیگیری دقیق این موضوع اهمیت بالایی دارد.»
هرگونه نشانهای از رسیدن مدلهای استدلالی به یک محدودیت عملکردی بالقوه، میتواند زنگ خطری برای صنعت هوش مصنوعی باشد؛ صنعتی که منابع مالی و فنی گستردهای را صرف توسعه این نسل از مدلها کرده است. مطالعات نیز نشان دادهاند که این مدلها با وجود تواناییهای بالا، دارای کاستیهایی جدی هستند؛ از جمله گرایش بیشتر به ایجاد «توهم»، در مقایسه با برخی مدلهای سنتی.