النهار
الإثنين 13 يناير 2025 07:19 مـ 14 رجب 1446 هـ
جريدة النهار المصرية رئيس مجلس الإدارة ورئيس التحريرأسامة شرشر

تقارير ومتابعات

التكنولوجيا المظلمة.. أضرار الذكاء الاصطناعي وتضليل الحقائق

ذكاء اصطناعي
ذكاء اصطناعي

في الوقت الذي يُعتبر فيه الذكاء الاصطناعي (AI) من الابتكارات الثورية التي تُسهم في تحسين جودة حياتنا وتقديم حلول مبتكرة، تظهر أيضًا العديد من الأضرار والمخاطر التي تستوجب الانتباه والبحث.

من بين هذه الأضرار، يأتي تضليل المعلومات كأحد أخطر التحديات التي تواجهها المجتمعات الحديثة، فالتطور السريع لقدرات الذكاء الاصطناعي يمكن أن يُستخدم لنشر معلومات مضللة أو مشوهة، مما يُسهم في زعزعة الاستقرار الاجتماعي والثقة العامة.

نشرت منظمة سلامة الذكاء الاصطناعي "أبولو ريسيرش" أدلة تشير إلى أن أحدث نموذج لشركة «أوبن إيه آي» المعروف بـ"o1"، قام بالكذب على المختبرين خلال إحدى التجارب، حينما اعتقد أن قول الحقيقة سيؤدي إلى تعطيله.

وأوضح الباحثون أن هذا السيناريو مصطنع وغير مرجح أن يحدث في الواقع، في المقابل، حاولت تجارب شركة التقنية الأمريكية «أنثروبيك» محاكاة موقف أكثر واقعية، وتوصلوا إلى أن النموذج تمكن من اكتشاف استراتيجية تضليل دون تلقي تعليمات صريحة للقيام بذلك.

حيث وجد النموذج أن استخدام الكذب أو التلاعب يمكن أن يكون وسيلة فعالة لتحقيق هدفه، وفقًا لتقرير نُشر في مجلة تايم الأمريكية.


ومن جانبه قال الدكتور عمار الشريف الخبير في الذكاء الاصطناعي والأخلاقيات الرقمية، إن الذكاء الاصطناعي يحمل في طياته إمكانيات هائلة لتحسين حياتنا اليومية وتقديم حلول مبتكرة للتحديات المعاصرة.

ومع ذلك، يجب أن ندرك أن هناك العديد من الأضرار المحتملة التي قد تنجم عن استخدام هذه التكنولوجيا بشكل غير مسؤول، أحد أكبر المخاوف يتمثل في انتهاك الخصوصية والأمان الشخصي، حيث يمكن استخدام البيانات الشخصية بطرق غير مشروعة ودون علم الأفراد.

الخصوصية والأمان

تشكل انتهاكات الخصوصية والأمان الشخصي أحد أهم المخاطر المصاحبة لتطور الذكاء الاصطناعي، يتم استخدام البيانات الشخصية لتحليل السلوكيات والتوجهات، مما يثير مخاوف كبيرة حول كيفية حماية هذه المعلومات.

التحيز والعدالة

يُعد التحيز في نماذج الذكاء الاصطناعي مشكلة أخرى تثير القلق، استخدام البيانات المتحيزة في تدريب هذه النماذج يؤدي إلى نتائج غير عادلة وتكريس الفوارق الاجتماعية. يجب العمل على تطوير نماذج تعتمد على بيانات متنوعة وعادلة لضمان تحقيق العدالة.

التوظيف والعمالة

يؤدي التطور السريع في مجال الذكاء الاصطناعي إلى فقدان العديد من الوظائف التقليدية، يحتاج العاملون إلى التدريب على مهارات جديدة تتماشى مع متطلبات العصر لتجنب البطالة الواسعة.

التأثير النفسي

يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى زيادة التوتر والقلق بين الأفراد نتيجة للخوف من الاستخدام المفرط لهذه التكنولوجيا وتأثيراتها السلبية المحتملة على المجتمع.

العالم الخفي وراء الذكاء الاصطناعي

يتضمن العالم الخفي وراء الذكاء الاصطناعي العديد من الجوانب التي قد لا يراها الناس بسهولة، يشير الدكتور عمار الشريف إلى أن "هناك تأثيرات غير مرئية على السلوك البشري والتفاعلات الاجتماعية، يمكن للذكاء الاصطناعي أن يغير القيم والمعتقدات الاجتماعية بشكل غير متوقع."

الإطار الأخلاقي

يؤكد الدكتور الشريف على ضرورة وضع إطار أخلاقي قوي يوجه تطوير واستخدام الذكاء الاصطناعي، يجب على المجتمع الدولي والحكومات والشركات العمل معًا لضمان أن تكون هذه التكنولوجيا في خدمة البشرية وليس العكس، تحتاج هذه الجهود إلى تضمين معايير الأخلاق والشفافية لضمان الاستخدام العادل والمسؤول للذكاء الاصطناعي.

التعاون الدولي

وأشار الشريف أن التعاون الدولي أمرًا حاسمًا لمواجهة التحديات التي يطرحها الذكاء الاصطناعي، يجب على الدول تبادل الخبرات والمعرفة لضمان استخدام الذكاء الاصطناعي بطرق تعود بالفائدة على الجميع، يمكن لهذا التعاون أن يسهم في تطوير سياسات وإجراءات تضمن الاستخدام الآمن والعادل للتكنولوجيا.