إعلانات مضللة تستهدف الأطباء بـ «الذكاء الاصطناعي»

0 تعليق ارسل طباعة

طبيب شاب في مدينة بلاكبيرن الإنكليزية في مايو 2020

تنتشر عبر منصات التواصل الاجتماعي إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات «معجزة» لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.

عبر فيسبوك وانستغرام، يَعدُ هؤلاء الأطباء «المزيّفون» بعلاج لمرض السكري من دون تناول الميتفورمين الذي عادة ما يوصف لهذه الحالات، حتى أنهم يشجعون المرضى على التخلي عن دوائهم الذي «سيقتلهم»، على قولهم، واعتماد شراب «طبيعي» غامض بدلا منه، وفق وكالة فرانس برس.

تعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة «التزييف العميق» هذه عبر الإنترنت.

ونقلت الوكالة عن الطبيب العام البريطاني جون كورماك الذي يتعاون مع مجلة «بريتيش ميديكال جورنال« (BMJ) بشأن هذا الموضوع قوله إن «الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتا في بناء صدقيتهم، لذا نصدّقهم حتى عندما يقدمون ادعاءات غريبة جدا».

ويقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات «التزييف العميق هذه بدأت فعليا خلال السنة الحالية»، مشيرا إلى أن الإعلانات تستهدف بشكل أساسي جمهورا «كبيرا في السن نوعا ما»، من خلال تشويه صورة «الأطباء الذي يظهرون كثيرا على التلفزيون».

وأكد ميشيل سيم الذي تواصلت معه وكالة فرانس برس في مايو، أنه رفع دعوى على شركة «ميتا» في شأن لـ«عمليات الاحتيال» هذه.

وعيّن البريطاني هيلاري جونز الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفا لارتفاع ضغط الدم بالإضافة إلى علكة من القنب، خبيرا لرصد أي إعلانات مماثلة. ويقول عبر «بريتيش ميديكال جورنال»: «حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى».

أوساط نظرية المؤامرة

لقد اكتسبت عمليات الاحتيال بالتزييف العميق «زخما بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)»، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة كاين.

ويشير إلى أنّ «جودة عمليات (التزييف العميق) في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير»، مضيفا «باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي».

وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ«التزييف العميق».

الطبيبة الاسترالية المتخصصة بالطب الطبيعي باربرا أونيل التي تعتبر السلطات في بلدها أنها «تشكل خطرا على الصحة بعد أن روّجت خصوصا لصودا الخبز كعلاج مضاد للسرطان، أصبحت نجمة على تيك توك بالاستناد إلى (التزييف العميق) الذي جعلها تبيع حبوبا من أجل (تنظيف الأوعية الدموية).

وفي اتصال مع الوكالة، أعرب زوجها الذي يشارك في إدارة شركة «أونيل»، عن أسفه لأن «الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصيا».

لا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن «هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة».

ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر موقع «أمازون».

وفي مواجهة عمليات (التزييف العميق) هذه، لا يبدي الخبراء تفاؤلا كبيرا بشأن نجاح أدوات رصدها. ويقول جوري «إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا، فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها».

ويسلط الباحث الضوء على «تقنيات تتيح ضمان عدم تغيير المحتوى، كما هي الحال بالنسبة إلى الرسائل، وذلك بفضل برامج تنتج توقيعات رقمية، كالشهادات».

أقرأ المزيد

أطفال اليمن إلى المدارس: مصاريف شحيحة وملابس قديمة

خليل البلوشي يغازل جمهور الأهلي المصري

أحدث رد من حزب الله والمقاومة العراقية على إسرائيل

قدمنا لكم زوارنا أهم وأحدث الأخبار الرياضية فى هذا المقال : إعلانات مضللة تستهدف الأطباء بـ «الذكاء الاصطناعي», اليوم الأحد 22 سبتمبر 2024 01:19 مساءً

إخترنا لك

أخبار ذات صلة

0 تعليق