نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
خصوصية المحادثات مع ChatGPT في مهب الريح|تفاصيل - بلس 48, اليوم الثلاثاء 29 يوليو 2025 01:38 مساءً
في تصريح أثار تساؤلات عميقة حول مستقبل الخصوصية الرقمية، كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن المحادثات التي يجريها المستخدمون مع روبوت الدردشة الذكي ChatGPT ليست محمية بالكامل بالسرية القانونية.
جاء ذلك خلال ظهوره في بودكاست "This Past Weekend" الذي يقدمه "ثيو فون"، حيث قال ألتمان بوضوح:"إذا تحدثت مع طبيب أو محامٍ أو معالج نفسي، فإن القانون يحمي خصوصيتك، لكن هذا لا ينطبق بعد على الذكاء الاصطناعي."
ثقة المستخدمين أكبر من الحماية القانونية
أشار ألتمان إلى أن الملايين من المستخدمين يشاركون ChatGPT تفاصيل شخصية عميقة، تشمل مشكلات عائلية ونفسية وعاطفية، معتبرين إياه بديلًا رقميًا للمعالج أو المدرب الشخصي.
لكن الواقع مختلف، فـ المحادثات مع ChatGPT لا تتمتع بأي حماية قانونية ملزمة مثل تلك الممنوحة في جلسات الاستشارة الطبية أو النفسية، وهو ما يشكل ثغرة كبيرة في منظومة الأمان الرقمي.
إمكانية استخدام محادثاتك كدليل قانوني
في تحذير واضح، لم يستبعد ألتمان أن تُستخدم محادثات المستخدمين مستقبلًا كأدلة في قضايا قانونية، إذا ما طُلب من OpenAI الإفصاح عن محتواها، وقال:"إذا تحدثتَ عن أمر حساس، ثم خضعت لتحقيق قانوني، قد تُجبر الشركة على تسليم المحادثات، وهذا تهديد مباشر للخصوصية."
بيانات حساسة بدون تشفير... والمخاطر تتزايد
على عكس تطبيقات مثل واتساب أو سيجنال التي توفر تشفيرًا كاملاً بين الطرفين، فإن OpenAI لا تعتمد هذا المستوى من التشفير في خدمة ChatGPT، بل تحتفظ بسجلات المحادثات من أجل:
تحسين أداء النماذج اللغوية
رصد الاستخدامات المسيئة أو الخطيرة
الوفاء بالمتطلبات القانونية عند الحاجة
رغم أن الشركة وعدت بحذف المحادثات من النسخة المجانية بعد 30 يومًا، إلا أن هذا لا يشمل الحالات التي يُشتبه فيها بسوء الاستخدام، ما يترك الباب مفتوحًا لاحتمال الاحتفاظ الدائم ببعض البيانات.
دعاوى قضائية تزيد الضغط على OpenAI
تأتي تصريحات ألتمان في وقت حساس، حيث تواجه OpenAI دعوى قضائية كبرى من صحيفة "نيويورك تايمز"، تُلزم الشركة بجمع وأرشفة ملايين المحادثات السابقة مع المستخدمين، باستثناء الحسابات المؤسسية.
ويخشى خبراء الخصوصية من أن يؤدي هذا الإجراء إلى تحول تلك المحادثات إلى مادة قانونية متاحة في المستقبل، سواء أمام المحاكم أو الجهات الرقابية.
غياب إطار قانوني واضح ينذر بالخطر
في ظل هذا المشهد المعقد، تتصاعد الأصوات المطالبة بضرورة سن قوانين واضحة وصارمة لحماية البيانات الشخصية عند التعامل مع أدوات الذكاء الاصطناعي.
فحتى اليوم، لا يزال التفاعل مع ChatGPT وغيره من النماذج الذكية خارج مظلة الحماية القانونية التقليدية، مما يعني أن المستخدمين هم من يتحملون مسؤولية ما يشاركونه.
الرسالة التي حملتها تصريحات ألتمان واضحة:لا تفترض الخصوصية المطلقة عند استخدام روبوتات الدردشة الذكية.
في غياب إطار تنظيمي شامل، يظل من الضروري أن يفكر المستخدم مرتين قبل مشاركة معلومات شخصية أو حساسة مع الذكاء الاصطناعي.
0 تعليق