جمعه 1403/06/23 ساعت 21:43
هکری با فریب ChatGPT/ دستورالعمل ساخت بمب دستساز گرفت
هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دستساز گرفت. این تکنیک برای فریب ChatGPT نشان میدهد که چتبات OpenAI بدون دستورالعملهای حفاظتی خود تقریباً درباره هرچیزی میتواند اطلاعات ارائه کند.