OpenAI اقدام جدید خود برای تقویت قابلیت حل مسئله ریاضی ChatGPT را در 31 می اعلام کرد. هدف از این کار کاهش خطاهای حسی هوش مصنوعی (AI) اعلام شده است. OpenAI بر کاهش خطاهای حسی به عنوان گامی مهم در جهت توسعه AGI تاکید کرد.
کاهش خطاهای هوش مصنوعی ChatGPT
در ماه مارس، معرفی آخرین نسخه ChatGPT، یعنی GPT-4، هوش مصنوعی را بیش از پیش در مرکز توجهات قرار داد. با این حال، چت باتهای هوش مصنوعی مدتهاست که با مشکل عدم دقت دست و پنجه نرم میکنند و گهگاه اطلاعات نادرستی تولید میکنند که معمولاً به آن خطای حسی یا توهم میگویند. تلاش برای کاهش این توهمات هوش مصنوعی از طریق پستی در وب سایت OpenAI اعلام شد.
توهمات هوش مصنوعی به مواردی اشاره دارد که سیستمهای هوش مصنوعی خروجیهایی تولید میکنند که واقعاً نادرست و گمراهکننده هستند یا توسط دادههای دنیای واقعی پشتیبانی نمیشوند. این توهمات میتواند به اشکال مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شود.
OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد “نظارت بر نتیجه” و “نظارت بر فرآیند” انجام داد. نظارت بر نتیجه شامل بازخورد مبتنی بر نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری را فراهم میکند. OpenAI این مدلها را با استفاده از مسائل ریاضی، ایجاد راهحلهای متعدد و انتخاب راهحل با بالاترین رتبه با توجه به هر مدل بازخورد ارزیابی کرد.
پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند، عملکرد بهتری دارد زیرا مدل را تشویق میکند تا به فرآیند تایید شده توسط انسان پایبند باشد. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالش برانگیزتر بود.
OpenAI تشخیص داد که پیامدهای نظارت فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزههای مختلف ضروری است. این موضوع این احتمال را ایجاد میکند که اگر نتایج مشاهده شده در زمینههای گستردهتر صادق باشند، نظارت بر فرآیند میتواند ترکیب مطلوبی از عملکرد و همسویی را ارائه دهد. برای تسهیل تحقیق، این شرکت مجموعه داده کامل نظارت بر فرآیند را به صورت عمومی منتشر کرد و از عموم برای اکتشاف و مطالعه در این زمینه دعوت کرد.
اگرچه OpenAI موارد واضحی که باعث شروع تحقیقات آنها در مورد توهم شده است را اعلام نکرد، دو اتفاق اخیر نمونهای از این مشکل در سناریوهای زندگی واقعی است.
در حادثه اخیر، وکیل استیون شوارتز در پرونده Mata v. Avianca Airlines اذعان کرد که به چت بات به عنوان یک منبع تحقیقاتی تکیه میکند. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی بوده است.
ChatGPT تنها نمونهی هوش مصنوعی نیست که با توهم مواجه شده است. هوش مصنوعی مایکروسافت، طی نمایشی از فناوری چت بات خود در ماه مارس، گزارشهای درآمدی را بررسی کرد اما ارقام نادرستی را برای شرکتهایی مانند Gap و Lululemon ارسال کرد.
منبع: Cointelegraph
پاسخ