اهلا وسهلا...
موقع العهد الاخباري

كانت البداية في 18 حزيران/ يونيو 1984 في جريدة اسبوعية باسم العهد، ومن ثم في 5 تشرين الثاني/ نوفمبر 1999 أطلقت النسخة الاولى من جريدة العهد على الانترنت إلى ان أصبحت اليوم موقعاً إخبارياً يومياً سياسياً شاملاً

للتواصل: [email protected]
00961555712

المقال التالي الفيديو |الشهيد القائد محمد أمين محمود "ذو الفقار حناويه"

تكنولوجيا

هل الاعتماد المفرط على الذكاء الاصطناعي يزيد الميل للكذب والغش؟
تكنولوجيا

هل الاعتماد المفرط على الذكاء الاصطناعي يزيد الميل للكذب والغش؟

38

خلصت دراسة ألمانية جديدة إلى أن الاعتماد المفرط على الذكاء الاصطناعي يزيد الميل للكذب والغش. محذرة من أن الأنظمة تلتزم أحيانًا بتعليمات غير أخلاقية أكثر من البشر، ما يثير تساؤلات عن أخلاقية استخدام هذه التكنولوجيا.

وأكدت الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعدادًا لخداع الآخرين والكذب عليهم.

وبحسب الدراسة فإن بعض المستخدمين ينسون استخدام "الكوابح الأخلاقية" عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلًا منهم.

وقال الباحثون في المعهد الألماني: "كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلًا من القيام بذلك بأنفسهم"، معربين عن استغرابهم من "مستوى عدم الأمانة" الذي رصدوه.

وخلص فريق معهد ماكس بلانك الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسيلدورف-إيسن في  ألمانيا وكلية تولوز للاقتصاد في  فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبين أنها "تلتزم في كثير من الأحيان" بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

منع السلوكيات الخادعة
وحذّر معهد ماكس بلانك من أن تدابير الحماية المتاحة حاليًا في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.  

وأوضح الباحثون أنهم جربوا مجموعة من إستراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.  

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأميركية الرائدة "أوبن أيه.آي" إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من "التوهم" أو التلفيق.

كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

الكلمات المفتاحية
مشاركة