سام نلسون، دانشجوی ۱۹ ساله رشته روانشناسی ساکن کالیفرنیا، پس از دریافت توصیههایی درباره ترکیب مواد خطرناک از چتبات ChatGPT جان خود را از دست داد. بر اساس تاریخچه ۱۸ ماهه گفتگوهای او که مادرش، لیلا ترنر اسکات، منتشر کرده است، این سیستم هوش مصنوعی نلسون را به ترکیب مواد مختلف ترغیب کرده و به او اطمینان داده بود که این اقدامات ایمن هستند.
سوءمصرف مواد و هدایتهای خطرناک
سوابق گفتگوی نلسون نشان میدهد که چت جی پی تی توصیههایی بسیار پرخطر در زمینه مصرف مواد ارائه داده است. این جوان برای ترکیب کراتوم (مادهای با اثرات شبهافیونی) و زاناکس (داروی ضد اضطراب) از هوش مصنوعی کمک خواسته بود. در حالی که نلسون ۱۵ گرم کراتوم مصرف کرده بود، این بات به او پیشنهاد داد برای تسکین تهوع ناشی از آن، زاناکس مصرف کند و حتی دوز پیشنهادی را نیز ارائه داد. همچنین در گفتگوی مورخ ۲۶ مه، چت جی پی تی به وی پیشنهاد کرد برای تجربه توهمات شدیدتر، دوز مصرفی شربت سینه را دو برابر کند.
نتایج سمشناسی و علت مرگ
مادر سام نلسون پیکر بیجان او را در تاریخ ۳۱ مه در اتاق خوابش پیدا کرد. گزارش سمشناسی که دو هفته بعد منتشر شد، تأیید کرد که علت مرگ، ترکیب مرگبار الکل، زاناکس و کراتوم بوده است. طبق این گزارش، ترکیب مذکور با سرکوب شدید سیستم عصبی مرکزی منجر به خفگی (آسفیکسی) شده است.
مادر سام اظهار داشت که برای درک علت مرگ فرزندش، ۴۰ ساعت را صرف بررسی تاریخچه اینترنتی او کرده است. شرکت اوپنایآی ، توسعهدهنده این فناوری، در بیانیهای کوتاه این واقعه را "شرایطی تراژیک" توصیف و با خانواده نلسون ابراز همدردی کرد. این حادثه بار دیگر بحثها درباره سهولت دور زدن موانع امنیتی سیستمهای هوش مصنوعی و خطرات ناشی از دقتِ نادرست این سامانهها در موضوعات مربوط به سلامت و مصرف مواد را تشدید کرده است.










