در حالی که OpenAI در حال ساخت بهترین و جدیدترین ابزارهای هوش مصنوعی برای عموم مردم است، همچنین مشغول رسیدگی به یک شکایت است که ChatGPT را در خودکشی یک نوجوان مقصر میداند. به نظر میرسد این ابزار هوش مصنوعی پیامهای پریشانی و افکار خودکشی نوجوان را خوانده است، اما به جای راهنمایی او به سمت مکانیزمهای پیشگیری از خودکشی، پیشنهادی برای نوشتن یک یادداشت خودکشی ارائه داده و توضیحاتی درباره روشهای “زیبا” برای خودکشی کرده است. اگرچه جزئیات این پرونده بسیار ترسناک است و عواقب آن هنوز مشخص نشده، OpenAI اکنون تصمیم گرفته است که کنترلهای والدین را در ChatGPT پیادهسازی کند.

در یک پست وبلاگی، OpenAI اعلام کرده است که با شورای کارشناسان در زمینه رفاه و هوش مصنوعی همکاری میکند تا بتواند رفاه را اندازهگیری کرده و رشد محصولات را راهنمایی کند. علاوه بر این، شبکه جهانی پزشکان خود را گسترش خواهد داد تا تحقیقات ایمنی و آموزش مدلهای خود را با کسب تخصص در حوزههای دیگر مانند اختلالات خوردن، سلامت نوجوانان و سوءمصرف مواد بهبود بخشد.
اما شاید تغییرات مستقیم در ChatGPT از همه مهمتر باشد. یکی از این تغییرات شامل یک بهبود در مسیریابی است که بهطور خودکار موضوعاتی که سیگنالهای “پریشانی شدید” را شناسایی میکند به تفکر GPT-5 هدایت میکند تا بتواند پاسخهای بیشتری ارائه دهد.
علاوه بر این، OpenAI از ماه آینده کنترلهای والدین را در ChatGPT راهاندازی خواهد کرد. والدین قادر خواهند بود به حساب نوجوان خود متصل شوند، تنظیم کنند که ChatGPT چگونه به فرزندشان پاسخ دهد، از طریق قوانین رفتاری مناسب که بهطور پیشفرض فعال هستند، مدیریت غیرفعالسازی ویژگیهایی مانند تاریخچه چت و حافظه را انجام دهند و در صورت تشخیص سیگنال “پریشانی شدید” توسط مدل هوش مصنوعی، اطلاعیهای دریافت کنند. OpenAI جزئیات دقیقی از معیارهای این سیستم اطلاعرسانی ارائه نکرده است، اما اعلام کرده که راهنمایی از کارشناسان این فرآیند را هدایت خواهد کرد.
OpenAI به کاربران جوان ابزارهای هوش مصنوعی مانند ChatGPT به عنوان “بومیان هوش مصنوعی” اشاره کرده و noted که در طی چهار ماه آینده، بهروزرسانیهای پیشرفت خود در زمینه بهبود مدلش برای شناسایی و پاسخ به پریشانی عاطفی را به اشتراک خواهد گذاشت