نورنیوز-گروه اجتماعی: زمانی که کاربر گفتگوی جدیدی با ChatGPT آغاز میکند، پیامی در پایین صفحه ظاهر میشود که هشدار میدهد: «ChatGPT ممکن است اشتباه کند. اطلاعات مهم را بررسی کنید.» این هشدار حتی در نسخه جدید مدل، یعنی GPT-5 نیز وجود دارد و اخیراً یکی از مدیران ارشد OpenAI بر اهمیت آن تأکید کرده است.
نیک تورلی، رئیس بخش ChatGPT در OpenAI، در پادکست Decoder وبسایت The Verge اظهار داشت: «موضوعی که درباره قابلاعتماد بودن وجود دارد این است که فاصله زیادی بین دو حالت «خیلی قابلاعتماد» و «صددرصد قابلاعتماد» وجود دارد. تا زمانی که ثابت نکنیم از یک متخصص انسانی در همه حوزهها قابلاعتمادتر هستیم، همچنان به کاربران توصیه میکنیم پاسخها را دوباره بررسی کنند.»
او ادامه داد که مردم باید به ChatGPT بهعنوان منبع اصلی حقیقت نگاه نکنند بلکه آن را بیشتر به عنوان نظر دوم مد نظر قرار دهند. تورلی همچنین هشدار داد که ابزارهای هوش مصنوعی مولد مانند ChatGPT ممکن است دچار «توهم» شوند و اطلاعات نادرستی ارائه دهند، زیرا مدلها برای پیشبینی محتملترین پاسخ طراحی شدهاند و هدف اصلیشان درک حقیقت نیست.
به گفته او، این ابزار بهترین عملکرد را زمانی دارد که همراه با منابع معتبر مانند موتورهای جستجو یا دادههای اختصاصی شرکتها استفاده شود: «هنوز هم باور دارم که بهترین محصول مدل زبانی بزرگی است که به واقعیت متصل باشد. به همین دلیل جستجو را به ChatGPT اضافه کردیم و فکر میکنم این قابلیت تفاوت بزرگی ایجاد کرده است.»