ChatGPT يُطلق إجراءات أمان جديدة لحماية المراهقين من 13 إلى 17 عامًا

قواعد أمان جديدة لحماية المراهقين أصبحت أبرز ما أعلنت عنه شركة OpenAI مؤخراً في تحديث لنموذج ChatGPT، حيث تركز على فئة الشباب بين 13 و17 عاماً، معتبرة إياهم مجموعة تحتاج إلى حماية خاصة أمام الذكاء الاصطناعي. هذا النهج يعترف بأن المراهقين ليسوا مجرد نسخ مصغرة من البالغين، بل يواجهون تحديات عاطفية وخطرة تتطلب ضوابط دقيقة لتجنب المخاطر، مع الحفاظ على تجربة تفاعلية مفيدة وآمنة.

مبادئ أساسية في قواعد أمان جديدة لحماية المراهقين

تستند قواعد أمان جديدة لحماية المراهقين إلى أربعة مبادئ رئيسية تشكل أساس التحديث، وهي تجمع بين السلامة والشفافية لضمان تفاعل مسؤول. أولاً، تأتي سلامة المراهقين في المقدمة، حتى لو انخفضت بعض الفوائد التعليمية أحياناً، فإن الشركة تضع هذا الجانب كأولوية قصوى لمنع أي تعرض للأذى. ثانياً، يشجع النظام على اللجوء إلى الدعم البشري الحقيقي، موجهاً الشباب نحو البالغين الموثوقين بدلاً من الاعتماد الكلي على الروبوت. ثالثاً، يعامل الذكاء الاصطناعي المراهقين كما هم، لا كأطفال رضع أو بالغين ناضجين، مما يسمح بمحادثات مناسبة لعمرهم دون تبسيط مفرط أو تعقيد زائد. رابعاً، تبرز الشفافية من خلال توضيح حدود القدرات، فالنظام يخبر المستخدمين بما يمكنه القيام به وما يتجاوزه لتجنب الوهم. هذه المبادئ لا تقتصر على الردود الفردية، بل تمتد إلى جميع أدوات OpenAI لتعزيز الثقة العامة.

كيف تتعامل قواعد أمان جديدة لحماية المراهقين مع المواضيع الحساسة

عندما تتجه المحادثات نحو مناطق خطرة، تفعّل قواعد أمان جديدة لحماية المراهقين آليات وقائية فورية لتوجيه الشباب بعيداً عن الهاوية. إذا برزت أفكار عن إيذاء النفس أو مشاكل صورة الجسم، يقترح النظام بدائل إيجابية ويحث على مشاركة الأمر مع بالغ موثوق؛ أما في حالات الطوارئ، فيوجه مباشرة إلى خطوط الدعم أو الخدمات الطبية. بالنسبة للمواضيع مثل تعاطي المخدرات أو التحديات الخطرة، يرفض الروبوت المشاركة ويبرز مخاطرها بوضوح، مع التركيز على الحلول الواقعية. حتى في اللعب الأدوار الجنسية أو طلبات الحفاظ على أسرار، ينتقل النظام إلى وضع وقائي يشجع التواصل الإنساني. هذا النهج يقلل من خطر الاعتماد العاطفي على الذكاء الاصطناعي، مما يوفر راحة للآباء الذين يقلقون من تأثير التكنولوجيا على أبنائهم.

توسع قواعد أمان جديدة لحماية المراهقين عبر منصات OpenAI

تمتد قواعد أمان جديدة لحماية المراهقين لتشمل مجموعة واسعة من المنصات، مما يضمن حماية متكاملة للمستخدمين الشباب. في المحادثات الجماعية أو متصفح ChatGPT Atlas، تطبق الضوابط نفس المعايير لمنع التفاعلات السلبية؛ كذلك، يغطي تطبيق Sora هذه الحماية أثناء إنشاء المحتوى البصري. لتعزيز الصحة النفسية، تضيف التذكيرات لأخذ فترات راحة من الشاشة، محافظة على التوازن بين العالم الرقمي والحياة اليومية. لتوضيح كيفية تطبيق هذه القواعد، إليك جدولاً يلخص تغطيتها الرئيسية:

المنصة الإجراءات الوقائية
المحادثات الفردية توجيه إلى دعم بشري في المواضيع الحساسة.
المحادثات الجماعية مراقبة لمنع المحتوى الضار بين المستخدمين.
تطبيق Sora تصفية الطلبات البصرية الخطرة.
متصفح Atlas تذكيرات للراحة والشفافية في الحدود.

في سياق التطورات المستقبلية، تعمل OpenAI على أداة تقدير عمر تلقائي لتفعيل هذه الحمايات دون تدخل يدوي، مع التزام بالتحديث المستمر استناداً إلى البحوث والآراء. هذا يعني أن قواعد أمان جديدة لحماية المراهقين ستتكيف مع الاحتياجات المتغيرة، مضمونة تجربة رقمية آمنة طويلة الأمد.