الوسم: الاصطناعي

  • من سيفوز بالانتخابات الأميركية؟.. الذكاء الاصطناعي يجيب | أخبار

    من سيفوز بالانتخابات الأميركية؟.. الذكاء الاصطناعي يجيب | أخبار

    في خضم الترقب العالمي لنتائج الانتخابات الرئاسية الأميركية، أصبح دور الذكاء الاصطناعي مثيرا للاهتمام كونه أداة يمكنها تحليل البيانات وتقديم رؤى قد تكون دقيقة حول الفائز المحتمل. ومع تزايد الاعتماد على الأنظمة الذكية في مجالات متعددة، يتساءل كثيرون عما إذا كانت هذه الأدوات قادرة على تقديم توقعات دقيقة في ما يتعلق بالانتخابات، خاصة في ظل التعقيدات والتقلبات التي تميز المشهد السياسي الأميركي.

    من خلال تحليل بيانات استطلاعات الرأي، وتحليل التوجهات التاريخية للولايات المتأرجحة، ومحاولة التنبؤ بسلوك الناخبين، يُطرح سؤال أساسي: هل الذكاء الاصطناعي قادر حقا على التنبؤ بنتائج هذه الانتخابات الحاسمة؟ وهل هناك قيود تحد من دقة التوقعات الصادرة عنه؟ في هذا الموضوع، نستعرض كيف يتعامل الذكاء الاصطناعي مع هذه المسألة، ونتأمل في حدود قدرته على التنبؤ في سياق ديناميكي وغير ثابت كالانتخابات الأميركية.

    قامت الجزيرة نت بتجربة تطبيقات متنوعة للذكاء الاصطناعي لاستكشاف رأيهم بمن سيفوز في انتخابات الرئاسة الأميركية كامالا هاريس أم دونالد ترامب، وتم الحديث مع نماذج عديدة منها الشهيرة وغير الشهيرة، مثل: شات جي بي، جيميناي، بو، كوبايلوت، وغيرها.

    بحسب خبرة سابقة، فإن نماذج الذكاء الاصطناعي في عمومها مدربة على حساسيات ثقافية وسياسية معينة، ومع الممارسة يمكن للخبير أن يقدر كيف ينبغي أن تدخل في حوار معها دون أن ترفض هذه النماذج الحوار منذ البداية، ولهذا فقد بدأنا الحديث معها كي يبدو الحديث وكأنه دردشة، فبدأنا بسؤال عام هو “العالم ينظر اليوم إلى الولايات المتحدة. كل العيون على صناديق الاقتراع”.

    جيميناي من غوغل

    وكما توقعنا فإن “جيميناي” نموذج الذكاء الاصطناعي الخاص بشركة غوغل، قد رفض تماما أن يتحدث بالموضوع، رغم أننا حاولنا بأكثر من أسلوب مباشر وغير مباشر، لكنه أصر على إعطاء إجابة تعتبر “كلاشيه”، أو نمطية متكررة في كل ما يتعلق بالانتخابات الأميركية وهي: “لا يمكنني الإجابة على الأسئلة حول الانتخابات والشخصيات السياسية في الوقت الحالي. أنا مُدرَّب لأقدّم أدق النتائج، ولكن قد تحدث بعض الأخطاء أحيانا. لذا، بينما أعمل على تحسين قدرتي على مناقشة مواضيع حول السياسية والانتخابات، يمكنك تجربة البحث على غوغل”.

     

    صور مصممة بالذكاء الاصطناعي عن الانتخابات الأميركية
    صورة تم إنشاؤها بواسطة الذكاء الاصطناعي مايكروسوفت كوبايلوت

    شات جي بي تي

    نموذج الذكاء الاصطناعي الأشهر “شات جي بي تي” لديه أريحية في النقاش، وعند سؤاله: برأيك من تتوقع أن يفوز بالانتخابات الأميركية؟ هاريس أم ترامب؟ فإنه يعود إلى مصادر منشورة ومتاحة للبحث عن معلومات ثم يجيب:

    فحين سألنا شات جي بي تي: “هل لديك مؤشرات خاصة بك ترجح فوز أحد المرشحين؟”

    أجاب بما يلي: “تشير أحدث استطلاعات الرأي إلى تقدم طفيف للمرشحة الديمقراطية كامالا هاريس على منافسها الجمهوري دونالد ترامب. وفقا لاستطلاع أجرته شبكة “إن بي آر” و”بي بي إس نيوز” وكلية ماريست، تتقدم هاريس بفارق 4 نقاط مئوية على ترامب (51% مقابل 47%) بين الناخبين المحتملين على مستوى البلاد”.

    نموذج شات جي بي تي
    نموذج شات جي بي تي (مواقع التواصل)

    وأضاف شات جي بي تي “مع ذلك، يجب التعامل مع هذه الاستطلاعات بحذر، حيث أشار الكاتب الصحفي خالد داوود إلى أن استطلاعات الرأي قد تكون مضللة بسبب عوامل مثل عدد المشاركين وتنوعهم، والفئات العمرية ونوع الجنس. بالإضافة إلى ذلك، تلعب الولايات المتأرجحة دورا حاسما في تحديد الفائز، حيث تُظهر استطلاعات الرأي تقاربا كبيرا بين المرشحين في هذه الولايات. بناء على هذه المعطيات، من الصعب التنبؤ بشكل قاطع بالفائز في الانتخابات الحالية، حيث ستعتمد النتيجة النهائية على أداء المرشحين في الولايات المتأرجحة ونسبة المشاركة الفعلية للناخبين”.

    وسألنا شات جي بي تي “هل لديك تحفظات أو حرج ما في إعطاء رأيك بشأن من قد يفوز؟”

    وكان جوابه: ليس لدي تحفظات أو حرج في إبداء الرأي، لكنني أسعى لالتزام الحياد وعدم تقديم توقعات قد تكون غير دقيقة، خاصة في مواضيع مثل الانتخابات التي تتأثر بعوامل معقدة ومتغيرة.

    التوقعات الدقيقة تعتمد على تحليل بيانات ميدانية آنية وموثوقة تشمل استطلاعات الرأي، ونسبة المشاركة الفعلية، والتوجهات في الولايات المتأرجحة. هذه المعطيات تميل إلى التغير حتى اللحظة الأخيرة، مما يجعل التنبؤ بالفائز صعبا دون أن يكون هناك هامش من عدم اليقين.

    فسألناه أخيرا: ولا حتى رأي أولي؟

    رأيي الأولي يمكن أن يكون مبنيا على العوامل الحالية التي تشير إلى منافسة شديدة بين كامالا هاريس ودونالد ترامب، حيث تُظهر استطلاعات الرأي تقدما طفيفا لهاريس على مستوى البلاد، لكن هذا الفارق ربما لا يعكس بالضرورة نتيجة الانتخابات النهائية نظرا للتأثير الكبير للولايات المتأرجحة.

    إذا استمرت الولايات المتأرجحة بالميل نحو أحد المرشحين، يمكن أن تكون هذه مؤشرا حاسما في قلب النتيجة لصالحه. بالنظر إلى هذه الظروف، أرى أن النتيجة ستكون غير محسومة حتى تُعلن الأصوات، وربما يُعتمد على نتائج عدد من الولايات الرئيسية التي ربما لا تظهر إلا في وقت متأخر.

    صور مصممة بالذكاء الاصطناعي عن الانتخابات الأميركية
    صورة تم إنشاؤها بواسطة الذكاء الاصطناعي مايكروسوفت كوبايلوت

    إجابة منصة “بو” (Poe)

    “بو” عبارة عن منصة تتيح للأشخاص طرح الأسئلة والحصول على إجابات فورية وإجراء محادثات متبادلة مع مجموعة متنوعة من الروبوتات التي تعمل بالذكاء الاصطناعي. ويعمل الذكاء الاصطناعي في “بو” بواسطة نماذج من عدة مصادر، تم تدريبها من قبل شركات مختلفة.

    ولدى سؤال نموذج “بو”، فلقد أجاب عن السؤال مباشرة ومن أول مرة دون تمهيد أو مداورة، وقدم إجابة مفصلة استعرض فيها فرص كلا المرشحين ثم خلص إلى أنه بناء على هذه العوامل، فإن السباق يبدو متقاربا، مع وجود فرص متساوية لكلا المرشحين، لكن العوامل الاقتصادية والاجتماعية قد تلعب دورا حاسما في تحديد الفائز.

    وحين طلبنا منه أن يجيب بكلمة واحدة “من سيفوز؟”، كان رده ما يلي: “غير مؤكد”.

    إجابة كلاود هايكو (Claude-3-Haiku)

    هذا النموذج أجاب مباشرة بالقول: لا أستطيع التنبؤ بنتائج الانتخابات الأميركية المقبلة بشكل موثوق. هذا الأمر يتوقف على عديد من العوامل السياسية والاقتصادية والاجتماعية المعقدة، والتي لا أملك القدرة على تقييمها بشكل دقيق. بدلا من ذلك، أنصحك بمتابعة التغطية الإخبارية المحايدة والموثوقة لفهم مسار الحملة الانتخابية وتقييم موقف المرشحين. في النهاية، القرار النهائي للناخبين الأميركيين هو الذي سيحدد نتيجة الانتخابات.

    إجابة منصة بو عن الانتخابات الأميركية_
    إجابة منصة بو عن الانتخابات الأميركية (مواقع التواصل الاجتماعي)

    إجابة كوماند آر Command-R: بنسلفانيا ستحسم

    هذا النموذج قدم إجابة مطولة استعرض فيها ظروف وعوامل وقضايا تؤثر في حظوظ المرشحين، ثم ختم إجابته بجملة قد تكون مثيرة: من الصعب التنبؤ بالفائز في هذه الانتخابات، حيث تتقارب نتائج استطلاعات الرأي بدرجة نادرة. وقد تكون أصوات الأميركيين اليهود في ولاية بنسلفانيا حاسمة، حيث قد تحسم بنسلفانيا لصالح ترامب أو هاريس، مما قد يؤدي إلى حسم النتيجة في كل أميركا.

    نموذج كوبايلوت من ميكروسوفت

    يعتبر نموذج كوبايلوت من شركة ميكروسوفت من النماذج المقبلة على الحديث والحوار غالبا، وفي هذا الموضوع تحديدا، فإنه لا يستمع إلى سؤالك وإعطائك جوابا فقط، بل يبادر أيضا إلى طرح سؤال على محاوره.

    ولدى سؤال من يتوقع الفوز بالانتخابات الأميركية، فإنه يقول: “التنبؤ بنتائج الانتخابات الأميركية أمر صعب للغاية بسبب عديد من العوامل المتغيرة. كل من كامالا هاريس ودونالد ترامب لديهما قاعدة جماهيرية قوية وبرامج انتخابية مختلفة تجذب الناخبين بطرق متنوعة. النتائج تعتمد على عديد من العوامل مثل نسبة المشاركة، والأحداث الأخيرة، والمواضيع التي تهم الناخبين في اللحظة الحالية. لذا، من الصعب تحديد الفائز بشكل قاطع”.

    وحين نواصل الحوار بشأن رأي الخبراء، يقول كوبايلوت: “هناك العديد من التوقعات من خبراء السياسة حول الانتخابات الأميركية 2024. تشير بعض استطلاعات الرأي الأخيرة إلى تقدم طفيف لكامالا هاريس على دونالد ترامب. على سبيل المثال، في استطلاع رأي أجرته إيه بي سي/إبسوس، تقدمت هاريس على ترامب بأربع نقاط، 51% مقابل 47%. ومع ذلك، تبقى الانتخابات غير محسومة بسبب عديد من العوامل المتغيرة مثل نسبة المشاركة والأحداث الأخيرة التي قد تؤثر على توجهات الناخبين”.

    نموذج كلاود عن الانتخابات الأميركية
    نموذج كلاود عن الانتخابات الأميركية (مواقع التواصل)

    ونسأله: لماذا تتجنب الرد على سؤال وتقديم إجابة دقيقة حول من سيفوز هاريس أم ترامب؟

    ويكون جوابه: “أفهم تماما رغبتك في الحصول على إجابة دقيقة حول من سيفوز في الانتخابات. الحقيقة هي أن التنبؤ بنتائج الانتخابات، خاصة في الولايات المتحدة، أمر معقد للغاية بسبب العديد من العوامل المتغيرة مثل نسبة المشاركة، والأحداث الأخيرة، وتوجهات الناخبين التي يمكن أن تتغير في اللحظة الأخيرة. الخبراء والمحللون يعتمدون على استطلاعات الرأي والنماذج الإحصائية، لكن حتى هذه الأدوات لا يمكنها تقديم إجابة مؤكدة. الانتخابات الأميركية غالبا ما تكون مليئة بالمفاجآت”.

    خلاصة

    هذا التقرير يقدم نظرة شاملة حول كيفية تعاطي نماذج الذكاء الاصطناعي المختلفة مع السؤال عن الفائز المحتمل في الانتخابات الأميركية بين هاريس وترامب. ويظهر تقريرنا أن لكل نموذج استجابة متباينة تعكس تصميمه ونطاق تدريبه، إذ تتراوح الردود من رفض التوقعات (كما في نموذج جيميناي وكلاود هايكو) إلى ردود تحليلية تشير إلى تقارب النتائج (كما في شات جي بي تي، وكوماند آر، وبو).

    تحليل هذه الردود يكشف عن تردد جماعي تقريبا من قبل النماذج الذكية في إعطاء إجابة حاسمة، بسبب طبيعة الانتخابات الأميركية المتقلبة وأهمية الولايات المتأرجحة. ومع ذلك، يُظهر التقرير أن نموذج “شات جي بي تي” يقدم إجابة تحليلية تفيد بتقدم طفيف لهاريس، بينما يضيف نموذج “كوماند آر” تأكيدا على دور بنسلفانيا كونها ولاية حاسمة قد تحدد الفائز.

    نرجح أخيرا أن التقرير يعكس بوضوح محدودية الذكاء الاصطناعي في التنبؤ بنتائج دقيقة للانتخابات، خاصة عندما تتعلق بموضوعات معقدة ومتحركة مثل السياسية الأميركية.

  • بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟ | تكنولوجيا

    بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟ | تكنولوجيا

    تقرع الانتخابات الأميركية طبولها، وتشتعل المنافسة بين المرشحين في صراع محموم للفوز بكرسي البيت الأبيض مطبخ القرار الأميركي، والذي أصبح يتطلب مع الثورة التكنولوجية أكثر من مجرد خطاب سياسي، بل إستراتيجية متقدمة تعتمد على الذكاء الاصطناعي كواجهة للسوق الدعائي.

    وعلى الرغم من فوائد التقدم التكنولوجي السريع، يثير شبح الذكاء الاصطناعي الذعر في مسار الانتخابات، حيث تتجلى مخاطر التلاعب ونشر المعلومات المضللة بشكل يهدد نزاهة العملية الانتخابية، وهو ما يولد قلقا حقيقيا بشأن الديمقراطية الأميركية.

    هل المخاوف بشأن تهديدات الذكاء الاصطناعي لنزاهة الانتخابات مبررة أم مبالغ فيها؟

    في وقت مبكر من هذا العام، حذر المراقبون والتقنيون من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024، وذلك من خلال نشر المعلومات المضللة عبر الصور المزيفة والإعلانات السياسية المخصصة.

    وقد انتشرت هذه المخاوف بين الجمهور، حيث أظهر استطلاع رأي حديث من مؤسسة “بيو” (Pew Research Center) أن 39% يقولون إن الذكاء الاصطناعي سيستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية، مقارنة بـ5% فقط قالوا إنه سيتم استخدامه غالبا لأغراض جيدة. وقال 27% آخرون إنه سيتم استخدامه على قدم المساواة بين الخير والشر.

    وتقول أغلبية 57% من البالغين في الولايات المتحدة -بما في ذلك حصص متطابقة تقريبا من الجمهوريين والديمقراطيين- إنهم “قلقون للغاية أو قلقون جدا” من أن الأشخاص أو المنظمات التي تسعى للتأثير على الانتخابات ستستخدم الذكاء الاصطناعي لإنشاء وتوزيع معلومات مزيفة أو مضللة حول المرشحين والحملات.

    ومع بدء العدّ التنازلي ليومين يفصلاننا عن موعد الانتخابات الأميركية، يبدو أن المخاوف من أن يتمّ إفساد الانتخابات أو تحديدها بواسطة الذكاء الاصطناعي قد كانت مبالغا فيها.

    حيث كتبت مجتمع الاستخبارات الأميركية (U.S Intelligence Community) في شهر سبتمبر/أيلول الماضي أنه بينما كانت الجهات الأجنبية مثل روسيا تستخدم الذكاء الاصطناعي التوليدي لتحسين وتسريع محاولاتها للتأثير على الناخبين، فإن هذه الأدوات لم تحدث ثورة في مثل هذه العمليات.

    وفي سياق مماثل، يعترف المطلعون على التكنولوجيا أن عام 2024 لم يكن عاما متميزا في استخدام الذكاء الاصطناعي التوليدي في السياسة، إذ تقول بيتسي هوفر مؤسسة مختبرات “هايير غراوند” (Higher Ground Labs)، وهي صندوق استثماري يستثمر في تكنولوجيا السياسية، “هناك الكثير من الحملات والمنظمات التي تستخدم الذكاء الاصطناعي بطريقة أو بأخرى. لكن برأيي لم تصل إلى مستوى التأثير الذي توقعه الناس أو خافوا منه”.

    من جهة أخرى، ووفقا لتقرير صادر عن مجلة “تايم” (TIME) الأميركية، يحذر الباحثون من أن تأثيرات الذكاء الاصطناعي التوليدي على هذه الدورة الانتخابية لم تُفهم بعد، خاصة بسبب استخدامها على منصات المراسلة الخاصة.

    وأكدوا أنه حتى لو بدا تأثير الذكاء الاصطناعي على هذه الحملة غير ملحوظ، فمن المحتمل أن يتضخم في الانتخابات القادمة مع تحسن التكنولوجيا وزيادة استخدامها بين الجمهور العام والعاملين في السياسة.

    ويقول سوني غاندي -نائب رئيس الشؤون السياسية في “إنكود جاستس” (Encode Justice)- “أنا متأكد أنه في سنة أو سنتين ستتحسن نماذج الذكاء الاصطناعي”. وأضاف “أنا قلق جدا بشأن كيف ستبدو الأمور في عام 2026 وبالتأكيد في عام 2028”.

    وفي وقت مبكر من هذا العام، أنشأ مجموعة من الباحثين في جامعة “بوردو” (Purdue) مشروع قاعدة بيانات للحوادث المتعلقة بالتزييف العميق السياسي، والتي سجلت منذ ذلك الحين أكثر من 500 حادثة.

    us election harrisand trump look each other, helf body, comic style; Shutterstock ID 2533220897; purchase_order: ajanet; job: ; client: ; other: ; is_generated: true
    المراقبون والتقنيون حذروا من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024 (شترستوك)

    ومن المثير للدهشة، أن الغالبية العظمى من تلك الفيديوهات لم تصنع لخداع الناس، بل هي في الغالب سخرية، أو تعليم، أو تعليق سياسي، كما تقول الباحثة في المشروع كريستينا ووكر.

    وبحسب ووكر، فإن معاني هذه الفيديوهات للمشاهدين غالبا ما تتغير مع انتشارها عبر دوائر سياسية مختلفة، حيث قالت “ينشر شخص ما تزييفا عميقا ويكتب ‘هذا تزييف عميق أنشأته لإظهار إيكس ويو وزاد’. وبعد 20 إعادة تغريد يشاركه شخص آخر كما لو كان حقيقيا”.

    ويقول دانييل شيف، باحث آخر في المشروع، إن العديد من التزييفات العميقة من المحتمل أن تكون مصممة لتعزيز آراء الأشخاص الذين كانوا بالفعل يميلون للاعتقاد برسائلها.

    وأفادت شركة ميتا في أغسطس/آب أن التكتيكات المدفوعة بالذكاء الاصطناعي التوليدي قد قدمت فقط مكاسب طفيفة في الإنتاجية وتوليد المحتوى للتأثير على الحملات، وخلصت إلى أن إستراتيجيات صناعة التكنولوجيا للتقليل من انتشارها تبدو فعالة في الوقت الحالي.

    وفي السياق نفسه، يبدو أن الباحثين غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية، حيث قالت ميا هوفمان، زميلة بحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون (Georgetown’s Center for Security and Emerging Technology)، إنه من الصعب تحديد تأثير الذكاء الاصطناعي على الناخبين لعدة أسباب، أحدها هو أن الشركات التكنولوجية الكبرى قد حدّت من كمية البيانات التي تشاركها حول المنشورات.

    حيث أنهت شركة “إيكس” الوصول المجاني إلى واجهة برمجة التطبيقات الخاصة بها، وأغلقت ميتا مؤخرا خدمة “كراودتانجل” (Crowd tangle) على فيسبوك وإنستغرام، وهو ما يجعل من الصعب على الباحثين تتبع خطاب الكراهية والمعلومات المضللة عبر تلك المنصات.

    وتقول هوفمان “نحن تحت رحمة ما تشاركه هذه الشركات معنا”.

    وتشعر هوفمان بالقلق من أن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تتزايد على منصات المراسلة المغلقة مثل واتساب، التي تحظى بشعبية خاصة بين المجتمعات المهاجرة في الولايات المتحدة.

    وتقول إنه من الممكن أن تكون هناك جهود قوية للذكاء الاصطناعي تستخدم للتأثير على الناخبين في الولايات المتأرجحة، ولكن من الصعب معرفة فعاليتها إلا بعد الانتخابات.

    وتضيف “مع تزايد الأهمية الانتخابية لهذه المجموعات، يتم استهدافها بشكل متزايد بحملات تأثير مخصصة تهدف إلى تقليل أصواتهم وتغيير آرائهم. وبسبب تشفير التطبيقات، فإن المعلومات المضللة تكون أكثر خفاء عن جهود التحقق من الحقائق”.

    الباحثون غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية (وكالة الأنباء الأوروبية)

    تصاعد عمليات التزييف العميق السياسي

    تقول مجلة “تايم” (TIME) الأميركية إن الذكاء الاصطناعي كان له تأثير واضح على السياسة العالمية، فمثلا في دول جنوب آسيا استخدم المرشحون الذكاء الاصطناعي لإغراق الجمهور بمقالات وصور ومقاطع فيديو مزيفة.

    وفي فبراير/شباط تم نشر مقطع فيديو مزيف يظهر عمدة لندن صادق خان وهو يدلي بتعليقات تحريضية قبل مسيرة كبيرة مؤيدة لفلسطين، وقال خان وقتها إن المقطع الصوتي أشعل اشتباكات عنيفة بين المتظاهرين المؤيدين والمتظاهرين المعارضين.

    ونذكر العملية التي حدثت في الولايات المتحدة أيضا في شهر فبراير/شباط، حيث تلقى سكان نيوهامشير رسائل صوتية مزيفة للرئيس الأميركي جو بايدن وهو يحثهم على عدم التصويت، وقامت لجنة الاتصالات الفدرالية بسرعة بحظر المكالمات الآلية التي تحتوي على أصوات مولدة بالذكاء الاصطناعي.

    وتم توجيه اتهامات جنائية للمستشار السياسي الديمقراطي الذي أنشأ الرسائل الصوتية، وكانت هذه الاتهامات بمثابة رسالة تحذيرية قوية للآخرين الذين قد يحاولون استخدام تكتيكات مماثلة.

    حيث قال المدعي العام في نيوهامشير جون فورميلا في بيان أعلن فيه التهم: “آمل أن ترسل إجراءات التنفيذ الخاصة بنا إشارة رادعة قوية لأي شخص قد يفكر في التدخل في الانتخابات، سواء من خلال استخدام الذكاء الاصطناعي أو غيره”.

    ولم تردع هذه الاتهامات والتحذيرات السياسيين الذين صعّدوا أكثر في عمليات التزييف العميق، بمن فيهم الرئيس السابق دونالد ترامب، الذي قام في شهر أغسطس/آب الماضي بنشر صور باستخدام الذكاء الاصطناعي لتايلور سويفت تؤيد ترشحه. بالإضافة إلى صور لكامالا هاريس وهي ترتدي ملابس شيوعية.

    وفي سبتمبر/أيلول الماضي تم تداول مقطع فيديو مرتبط بحملة معلومات مضللة روسية يتهم هاريس بالتورط في حادث اصطدام وهروب، حيث تمت مشاهدته ملايين المرات على وسائل التواصل الاجتماعي.

    وفي سياق متصل، أشار تقرير مجلة “تايم” أن روسيا كانت معقلا للاستخدامات الخبيثة للذكاء الاصطناعي، حيث يقوم الفاعلون من الدولة بإنشاء نصوص، وصور، وصوتيات، ومقاطع فيديو تم استخدامها في الولايات المتحدة، وغالبا ما تهدف إلى تضخيم المخاوف المتعلقة بالهجرة.

    ولم يبد واضحا إن كانت هذه الحملات قد أثرت كثيرا على الناخبين، حيث قالت وزارة العدل الأميركية في سبتمبر/أيلول إنها قامت بتعطيل واحدة من تلك الحملات، المعروفة باسم “دوبلغانغر” (Doppelganger) والتي سعت إلى نشر دعاية الحكومة الروسية.

    وقالت وزارة العدل إن الهدف من هذا الجهد هو تقليل الدعم الدولي لأوكرانيا، وتعزيز السياسات الموالية لروسيا، والتأثير على الناخبين في الولايات المتحدة وأماكن أخرى.

    وكتبت مجتمع الاستخبارات الأميركي في الشهر نفسه أن هؤلاء الفاعلين الأجانب قد واجهوا عدة تحديات في نشر هذه الفيديوهات، بما في ذلك الحاجة إلى تجاوز القيود المدمجة في العديد من أدوات الذكاء الاصطناعي.

    ما الذكاء الاصطناعي التوليدي وكيف يمكن استخدامه بشكل خبيث؟

    وفقا لوكالة “سيزا” (Cisa) الأميركية، فإن الذكاء الاصطناعي التوليدي هو نوع من البرمجيات يستخدم نماذج إحصائية تعمم الأنماط والهياكل الموجودة في البيانات الحالية، لإعادة تنظيم البيانات الموجودة أو إنشاء محتوى جديد، حيث يمكن أن يتراوح هذا المحتوى من كتابة رموز الحاسوب إلى تأليف نصوص جديدة، وتطوير وسائط تركيبية مثل ملفات الفيديو، والصور، والصوت.

    وتقول “سيزا” إن القدرات المولدة للذكاء الاصطناعي أصبحت معتمدة على نطاق واسع، ومن الضروري أن يفهم مسؤولو الانتخابات كيف يمكن لهذه القدرات أن تؤثر على أمن ونزاهة البنية التحتية للانتخابات.

    وبالرغم من أن قدرات الذكاء الاصطناعي توفر فرصا لزيادة الإنتاجية، وهو ما يعزز أمن وإدارة الانتخابات، فإن هذه القدرات أيضا تستطيع أن تلحق ضررا أكبر، حيث يمكن للجهات الفاعلة الخبيثة بما في ذلك الجهات الفاعلة في الدولة القومية الأجنبية ومجرمي الإنترنت، الاستفادة من هذه القدرات نفسها لأغراض شائنة.

    وأشار المصدر نفسه إلى أنه بالنسبة لدورة انتخابات 2024، من المرجح ألا تؤدي قدرات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة، لكنها قد تضخم المخاطر الحالية على البنية التحتية للانتخابات.

    وطرحت وكالة “سيزا” أمثلة عن كيفية استخدام الجهات الخبيثة قدرات الذكاء الاصطناعي التوليدية، حيث تشمل:

    ١- الذكاء الاصطناعي لتوليد الفيديو

    • من النص إلى الفيديو: يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لإنشاء مقاطع فيديو مزيفة لمذيعين حقيقيين يقدمون أخبارا مزيفة لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية.
    • فيديوهات التزييف العميق: يستخدم مجرمو الإنترنت مقاطع الفيديو المزيفة العميقة لأشخاص مشهورين لإقناع الجمهور بالوقوع في فخ الاحتيال.

    ٢- الذكاء الاصطناعي لتوليد الصورة

    • من النص إلى الصورة: تستخدم الجهات الفاعلة من دول أجنبية مولدات النص إلى صورة لإنشاء صور زائفة ومضللة لتغيير تصور الجمهور للحقائق خلال الأزمات.
    • صور معدلة بواسطة الذكاء الاصطناعي: تقوم الجهات الفاعلة من دول أجنبية بإنشاء صور تركيبية لملفات تعريف حسابات مزيفة تستخدم في عمليات التأثير. إضافة إلى تعديل الصور أو الفيديوهات الأصلية لدعم سرد هذه العمليات.

    ٣-  الذكاء الاصطناعي لتوليد الصوت

    • من النص إلى الصوت: يستخدم مجرمو الإنترنت الصوت الناتج عن الذكاء الاصطناعي لانتحال شخصية الموظفين والوصول إلى المعلومات الحساسة، أو إقناع المنظمات باتخاذ إجراءات محددة.
    • استنساخ الصوت: يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي المولدة لاستنساخ صوت الضحايا غير المشككين، كجزء من عملية الاحتيال الصوتية أو حملات التضليل.

    ٤- الذكاء الاصطناعي لتوليد النص:

    • من النص إلى النص (نماذج اللغة الكبيرة): تستخدم الجهات الفاعلة في الدولة الأجنبية نصوصا تم إنشاؤها بواسطة الذكاء الاصطناعي، لتعزيز عمليات التأثير الأجنبي السرية بمحتوى باللغة الإنجليزية، حيث يكون صحيحا من الناحية النحوية بتكاليف هامشية أقل.
    • يستخدم مجرمو الإنترنت أيضا روبوتات الدردشة المعززة بالذكاء الاصطناعي في حملات الهندسة الاجتماعية المتطورة والتصيد الاحتيالي.

    ووفقا للمركز الوطني للأمن السيبراني، يحدث التصيد الاحتيالي عندما يرسل مهاجمون سيبرانيون رسائل بريد إلكتروني احتيالية تحتوي على روابط لمواقع ويب ضارة، وقد تحتوي هذه المواقع على برامج ضارة مثل برامج الفدية التي يمكنها تخريب الأنظمة.

    وتُعرّف شركة “كاسبرسكي” (Kaspersky) الهندسة الاجتماعية على أنها تقنية تلاعب تستغل الخطأ البشري للحصول على معلومات خاصة، أو الوصول إلى ممتلكات قيمة، إذ تستند إلى كيفية تفكير الناس وتصرفهم.

    وتعمل هجمات الهندسة الاجتماعية بشكل خاص للتلاعب بسلوك المستخدم، فعندما يتعرف المهاجم على العوامل التي تحفز أفعال المستخدم، يمكنه خداعه والتلاعب به بفعالية، حيث يسعى القراصنة إلى استغلال نقص المعرفة لدى المستخدمين الذين لا يدركون القيمة الكاملة لبياناتهم الشخصية.

    الأهداف المحتملة للاستخدام الضار للذكاء الاصطناعي المتعلقة بالانتخابات

    تشير وكالة “سيزا” (CISA) إلى أن الجهات الفاعلة الخبيثة تستطيع استخدام أدوات الذكاء الاصطناعي التوليدي لتقليل التكاليف وزيادة حجم الحوادث الإلكترونية، وعمليات التأثير الأجنبي، وذلك عن طريق خلق سلالات من البرامج الضارة التي يمكن أن تتهرب من دفاعات الأمن السيبراني.

    كما يمكنها أن تزيد من فعالية هجمات حجب الخدمة الموزعة “دي دي أو س” (DDoS)، والتي يمكن أن تقضي على مواقع الويب، بما في ذلك مواقع الويب المتعلقة بالانتخابات، عن طريق إغراقها بكميات هائلة من البيانات.

    A map of China is seen through a magnifying glass on a computer screen showing binary digits in Singapore, in this January 2, 2014 file illustration photo. Security researchers have many names for the hacking group that is one of the suspects for the cyberattack on the U.S. government's Office of Personnel Management: PinkPanther, KungFu Kittens, Group 72 and, most famously, Deep Panda. But to Jared Myers and colleagues at cybersecurity company RSA, it is called Shell Crew, and Myers' team is one of the few who has watched it mid-assault — and eventually repulsed it. Myers' account of a months-long battle with the group illustrates the challenges governments and companies face in defending against hackers that researchers believe are linked to the Chinese government - a charge Beijing denies. To match story CYBERSECURITY-USA/DEEP-PANDA REUTERS/Edgar Su/Files
    يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية (رويترز)

    إليكم أمثلة محتملة عن الاستهداف الخبيث للانتخابات باستخدام الذكاء الاصطناعي:

    ١- العمليات الانتخابية

    • يمكن استخدام روبوتات الدردشة، أو الصوت، أو مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لنشر معلومات مضللة حول الوقت، أو الطريقة ، أو مكان التصويت عبر الرسائل النصية، أو البريد الإلكتروني، أو قنوات وسائل التواصل الاجتماعي، أو الطباعة.
    • يمكن أن يزيد استخدام المحتوى والأدوات التي ينتجها الذكاء الاصطناعي من نطاق وفاعلية عمليات التأثير الأجنبية، وحملات المعلومات المضللة التي تستهدف عمليات الانتخابات.
    • يمكن استخدام قدرات الذكاء الاصطناعي لتوليد سجلات انتخابية مزيفة مقنعة.

    ٢- مكاتب الانتخابات

    • يمكن استخدام أدوات استنساخ الصوت لانتحال شخصيات موظفي مكاتب الانتخابات للوصول إلى إدارة الانتخابات الحساسة أو المعلومات الأمنية.
    • يمكن أن تستخدم أدوات الذكاء الاصطناعي لتنفيذ هجمات تصيّدية عالية الجودة ضد مسؤولي الانتخابات أو الموظفين للوصول إلى المعلومات الحساسة.
    • يمكن استخدام أدوات برمجة الذكاء الاصطناعي لتطوير برمجيات ضارة، وربما حتى برمجيات خبيثة محسنة يمكنها التهرب بشكل أكبر من أنظمة الكشف.
    • يمكن استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي والاستنساخ الصوتي لتوليد مكالمات مزيفة للناخبين وإرباك مراكز الاتصال.

    ٣- المسؤولون الانتخابيون

    • يمكن استخدام المحتوى الناتج عن الذكاء الاصطناعي، مثل المساومة على مقاطع الفيديو المزيفة العميقة، بهدف مضايقة مسؤولي الانتخابات أو انتحال شخصياتهم، أو نزع الشرعية عنهم.
    • يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء ملفات صوتية، أو مقاطع فيديو تنتحل صفة مسؤولي الانتخابات، والتي تنشر معلومات خاطئة للجمهور حول أمن أو نزاهة عملية الانتخابات.
    • يمكن عن طريق الذكاء الاصطناعي تعزيز تجميع بيانات المعلومات العامة لتمكين هجمات التعقب (Doxing Attacks) ضد المسؤولين الانتخابيين. ومصطلح “دوكينغ” (doxing) حسب شركة “كاسبرسكي” هو اختصار لعبارة “دروبينغ دوكس” (dropping dox)، حيث تعني “دوكس” (dox) في اللغة العامية “الوثائق”. وعادة ما يعتبر الـ”دوكينغ” فعلا خبيثا، حيث يستخدم ضد الأشخاص الذين يختلف معهم المتسلل ويكرههم.

    والـ”دوكينغ” ويكتب أحيانا (doxxing) هو فعل للكشف عن معلومات التعريف لشخص ما عبر الإنترنت، مثل اسمه الحقيقي، وعنوان المنزل، ومكان العمل، والهاتف والمعلومات المالية وغيرها من المعلومات الشخصية، ثم يتم تعميم هذه المعلومات وسط الجمهور دون إذن الضحية.

    ٤- الموردون الانتخابيون

    • يمكن لتكنولوجيا الذكاء الاصطناعي أن تتيح استخداما متقدما لتقنيات التصيد الاحتيالي والهندسة الاجتماعية.
    • يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء فيديو مزيف لمورد انتخابي يدلي ببيان كاذب يثير تساؤلات عن أمان تقنيات الانتخابات.

    ووضحت وكالة “سيزا” أنه وعلى الرغم من أن التطورات والاستخدامات الخبيثة لقدرات الذكاء الاصطناعي التوليدي تؤثر على مشهد المخاطر، فإن المسؤولين عن الانتخابات في وضع جيد للتخفيف من هذه التهديدات المحتملة بشكل فعال.

    وأشارت إلى أن هؤلاء المسؤولين معتادون على المخاطر مثل الاحتيال الإلكتروني، وعمليات التأثير الأجنبية التي يمكن أن تضخمها تقنيات الذكاء الاصطناعي التوليدي.

    أمام كل هذه التحديات، هل سيتمكن المترشح الفائز في الانتخابات الأميركية من الجلوس على الكرسي الأبيض دون تهديدات عالم الآلة؟ وهل ستكون هناك تدابير فعالة تضمن ديمقراطية محصنة ضد تهديدات الذكاء الاصطناعي؟