اقدام OpenAI برای بهبود نتایج خروجی هوش مصنوعی ChatGPT

هوش مصنوعی

OpenAI اقدام جدید خود برای تقویت قابلیت حل مسئله ریاضی ChatGPT را در 31 می اعلام کرد. هدف از این کار کاهش خطاهای حسی هوش مصنوعی (AI) اعلام شده است. OpenAI بر کاهش خطاهای حسی به عنوان گامی مهم در جهت توسعه AGI تاکید کرد.

کاهش خطاهای هوش مصنوعی ChatGPT

در ماه مارس، معرفی آخرین نسخه ChatGPT، یعنی GPT-4، هوش مصنوعی را بیش از پیش در مرکز توجهات قرار داد. با این حال، چت بات‌های هوش مصنوعی مدت‌هاست که با مشکل عدم دقت دست و پنجه نرم می‌کنند و گهگاه اطلاعات نادرستی تولید می‌کنند که معمولاً به آن خطای حسی یا توهم می‌گویند. تلاش برای کاهش این توهمات هوش مصنوعی از طریق پستی در وب سایت OpenAI اعلام شد.

توهمات هوش مصنوعی به مواردی اشاره دارد که سیستم‌های هوش مصنوعی خروجی‌هایی تولید می‌کنند که واقعاً نادرست و گمراه‌کننده هستند یا توسط داده‌های دنیای واقعی پشتیبانی نمی‌شوند. این توهمات می‌تواند به اشکال مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شود.

OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد “نظارت بر نتیجه” و “نظارت بر فرآیند” انجام داد. نظارت بر نتیجه شامل بازخورد مبتنی بر نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری را فراهم می‌کند. OpenAI این مدل‌ها را با استفاده از مسائل ریاضی، ایجاد راه‌حل‌های متعدد و انتخاب راه‌حل با بالاترین رتبه با توجه به هر مدل بازخورد ارزیابی کرد.

پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند، عملکرد بهتری دارد زیرا مدل را تشویق می‌کند تا به فرآیند تایید شده توسط انسان پایبند باشد. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالش‌ برانگیزتر بود.

OpenAI تشخیص داد که پیامدهای نظارت فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزه‌های مختلف ضروری است. این موضوع این احتمال را ایجاد می‌کند که اگر نتایج مشاهده شده در زمینه‌های گسترده‌تر صادق باشند، نظارت بر فرآیند می‌تواند ترکیب مطلوبی از عملکرد و همسویی را ارائه دهد. برای تسهیل تحقیق، این شرکت مجموعه داده کامل نظارت بر فرآیند را به صورت عمومی منتشر کرد و از عموم برای اکتشاف و مطالعه در این زمینه دعوت کرد.

این مطلب را حتما بخوانید:  یک استودیو فیلم ژاپنی از ساخت فیلم‌هایی بر اساس ارز دیجیتال خبر داد

اگرچه OpenAI موارد واضحی که باعث شروع تحقیقات آنها در مورد توهم شده است را اعلام نکرد، دو اتفاق اخیر نمونه‌ای از این مشکل در سناریوهای زندگی واقعی است.

در حادثه اخیر، وکیل استیون شوارتز در پرونده Mata v. Avianca Airlines اذعان کرد که به چت بات به عنوان یک منبع تحقیقاتی تکیه می‌کند. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی بوده است.

ChatGPT تنها نمونه‌ی هوش مصنوعی نیست که با توهم مواجه شده است. هوش مصنوعی مایکروسافت، طی نمایشی از فناوری چت بات خود در ماه مارس، گزارش‌های درآمدی را بررسی کرد اما ارقام نادرستی را برای شرکت‌هایی مانند Gap و Lululemon ارسال کرد.

 

منبع: Cointelegraph

پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *