أثار الرئيس التنفيذي لشركة OpenAI، سام ألتمان، موجة واسعة من الجدل بعد إعلانه أن الشركة ستسمح بتداول المحتوى الموجَّه للبالغين عبر تطبيق ChatGPT، بدءًا من ديسمبر المقبل، شريطة أن يكون المستخدمون قد خضعوا لعملية التحقق من أعمارهم.
ويأتي هذا القرار في ظل تصاعد النقاش العالمي حول حدود استخدام الذكاء الاصطناعي ومدى التزامه بالمعايير الأخلاقية، خصوصًا مع الانتشار الكبير لتطبيق ChatGPT الذي يستخدمه ملايين الأشخاص يوميًا حول العالم.
توسيع سياسات التحقق العمري
وأوضح ألتمان، في منشور على منصة X (تويتر سابقًا)، أن الشركة ستبدأ تنفيذ سياسة تحقق عمرية موسعة، مضيفًا:
“انطلاقًا من مبدأ معاملة المستخدمين البالغين كبالغين، سنسمح بمزيد من أنواع المحتوى، بما في ذلك المواد المخصصة للبالغين الذين تم التحقق من هويتهم.”
وأضاف أن هذا القرار يأتي بعد مراجعة للقيود السابقة التي فرضت على روبوت المحادثة، والتي كانت تهدف إلى حماية الصحة النفسية للمستخدمين لكنها في المقابل حدّت من حرية الاستخدام في بعض المجالات.
تعامل أكثر مرونة مع القضايا النفسية
ووفقًا لوكالة رويترز، أشار ألتمان إلى أن ChatGPT كان في السابق “مقيّدًا إلى حد كبير” لضمان التعامل بحذر مع القضايا النفسية الحساسة، مشيرًا إلى أن هذا الحذر الزائد جعل التجربة أقل تفاعلية ومتعة بالنسبة للكثير من المستخدمين.
وأكد أن الشركة طوّرت أدوات جديدة تتيح تخفيف تلك القيود تدريجيًا مع الحفاظ على معايير السلامة النفسية للمستخدمين.
ميزات جديدة للتحكم في شخصية الدردشة
كما كشف ألتمان عن قرب إطلاق إصدار جديد من ChatGPT يمنح المستخدمين تحكمًا أوسع في نبرة الحوار وشخصية الروبوت، موضحًا:
“سيكون بإمكان المستخدم أن يجعل ChatGPT يتحدث بطريقة بشرية جدًا، أو يستخدم رموزًا تعبيرية بكثرة، أو يتصرف كصديق، لكن فقط إذا اختار المستخدم هذا النمط بنفسه.”
وفي السياق ذاته، أعلنت شركة ميتا – المالكة لتطبيقي فيسبوك وإنستغرام – عن إطلاق نظام جديد لتصفية المحتوى الموجَّه للمراهقين دون سن 18 عامًا، مستوحى من تصنيفات الأفلام PG-13، بهدف تنظيم نوعية المحتوى الذي يمكن للمستخدمين الصغار الوصول إليه، بما في ذلك ما يتعلق بأدوات الذكاء الاصطناعي التوليدية.





