الأربعاء 06/نوفمبر/2024 - 11:03 م 11/6/2024 11:03:39 PM
قال المهندس محمد الحارثي، المتخصص في التحول الرقمي وأمن المعلومات، إنه من الخطورة التعامل مع ChatGPT بشكل مفرط دون الوعي الكامل بالمخاطر المتعلقة بالبيانات الشخصية، مؤكدًا أنه حدث تسريب للبيانات في 2023 في النسخة التجريبية لـ ChatGPT، وتسبب في تسريب محادثات بعض المستخدمين على الدارك ويب.
وأضاف، خلال تصريحاته لبرنامج “Tech talk”، والمذاع عبر فضائية “إكسترا نيوز”، أنه رغم أن شركة OpenAI قد عملت على معالجة التسريب، إلا أنه يجب علينا أن نكون حذرين في استخدام هذه التطبيقات، موضحًا أنه لا يوجد شيء على الأرض آمن 100%، والتقنيات الحديثة شهدت تسريبات عديدة للبيانات في السنوات الأخيرة.
يجب استخدام تطبيقات الذكاء الاصطناعي في سياقات محددة
وتابع، أنه من الأهمية بمكان أن نستخدم تطبيقات الذكاء الاصطناعي في سياقات محددة مثل الأعمال، البحث، والتعليم، ولكن يجب أن نبتعد عن مشاركة البيانات الشخصية أو الصور، مشيرًا إلى أننا نحتاج إلى وعي أكبر بشأن كيفية التعامل مع هذه التطبيقات، مشيرًا إلى أن الذكاء الاصطناعي والتقنيات الحديثة تطورت بشكل غير مسبوق، وعلينا أن نكون حذرين من تأثير هذه التقنيات على سلوكنا وخصوصياتنا، وعلينا أن نستخدمها بحذر ووعي لضمان ألا تسيء الاستخدامات المستقبلية لهذه التقنيات.