تكنولوجيا

الذكاء الاصطناعي إلى أين؟ حملات مكافحة العنف تستغل تقنية استنساخ الصوت

استخدام أصوات الأطفال الذين قُتلوا بواسطة الأسلحة النارية في The Shotline يثير أسئلة عميقة حول استخدام هذه التكنولوجيا

بواسطة فريق عربية.Inc
images header

أمس جرى إطلاق موقع TheShotline.org باستخدام تكنولوجيا استنساخ الصوت بطريقةٍ تكشف عن الأسئلة المعقَّدة المتعلِّقة بهذه التُّكنولوجيا النَّاشئة، فوفقاً لتقرير صحيفة Wall Street Journal، تتبّع مساعي مكافحة العنف بواسطة الأسلحة النَّارية القالب المألوف لحملات اللُّوبي، التي تطلقها جماعات الضَّغط، تماماً كما في محاولاتٍ سابقةٍ أقلَّ تطوُّراً، جرت لتغيير آراء صانعي القرار عبر حملات كتابة الرَّسائل أو المكالمات الهاتفيَّة. [1]  

في موقع The Shotline، أنت تعطي الموقع الرَّمز البريديَّ الخاصِّ بك، ثمَّ يكتشف تلقائيَّاً من هو ممثلك المحليّ، ومن ثمَّ يمكنك إجراء مكالمة هاتفيَّة إلى تلك الشَّخصيَّة التي تمَّ إنشاؤها بواسطة نظامٍ آليٍّ، ولكن يجري إعداد هذه الرِّسالة الهاتفيَّة المخصَّصة من خلال إعادة تكوينٍ رقميٍّ لصوت أحد الأطفال والشُّبَّان السِّتة الَّذين قُتلوا بسبب العنف الحاصل بواسطة الأسلحة النَّاريَّة.

وهذا هو فعلاً مثالٌ على تكنولوجيا استنساخ الصَّوت بواسطة الذكاء الاصطناعي، وهي تكنولوجيا تتقدَّم بسرعةٍ إلى جانب انتشار أدوات الذكاء الاصطناعي حول العالم، بينما أظهرت فوائد واضحةً، مثل: تضمينها في أنظمة Apple لمساعدة الأشخاص الَّذين يفقدون القدرة على الكلام بسبب المرض في الحفاظ على نبرة أصواتهم المنطوقة، غير أنَّه توجد أمثلةٌ واضحةٌ على سوء استخدامها في السِّياسة، كما جرى في فضيحة الانتخابات في نيو هامبشاير، التي تضمَّنت خطاباً مفبركاً يُعتَقدُ أنَّه للرئيس جو بايدن، إذ أظهرت إمكانيَّة استخدام هذه التُّكنولوجيا بشكلٍ خبيثٍ، كذلك فإنَّ استخدامها في حملة مكافحة العنف بواسطة الأسلحة النَّاريَّة يُسلِّط الضَّوء على بعض المسائل الأخلاقيَّة والجوانب المزعجة لهذا الابتكار.

شاهد أيضاً: في عام 2023: تطورات الذكاء الاصطناعي بين كرٍّ وفرٍّ

وتُعدُّ رسائل موقع The Shotline التي جرى إنشاؤها بواسطة الذكاء الاصطناعي رسائل صريحةً، إذ تستفيد من حقيقة أنَّها أُنشئت بشكلٍ اصطناعيٍّ لتوصيل فكرتها بشكلٍ قاطعٍ، نظراً لعدم وجود الشَّابّ الذي سُلبت منه الحياة ليقوم بالاتِّصال بنفسه، وجرى إطلاق The Shotline من قبل والديَّ جواكين أوليفر، الذي قُتل في حادث إطلاق النَّار في مدرسة باركلاند في فلوريدا عام 2018.

ويحذِّر صوت جواكين -وفقاً لتقرير موقع Engadget- الَّذين يتلقُّون المكالمات قائلاً: "يوجد ضحايا آخرين مثلي سيعمدون إلى إجراء اتصالٍ أيضاً". ويتمكَّن ذوو ضحايا العنف بواسطة الأسلحة الناريَّة، الَّذين يرغبون في تضمين أصوات أطفالهم في The Shotline من التَّسجيل وتقديم عيّناتٍ صوتيَّةٍ، بحيث يمكن لأطفالهم أن يلعبوا دوراً في ذلك. ولا يتطلَّب ذلك منهم سوى بضع دقائق من البيانات الصَّوتيَّة، وربَّما يستطيعون أخذها من وسائل التواصل الاجتماعي.

وسواء كانت هذه الحملة ستؤدِّي إلى تغيُّير آراء أيّ صانع قرارٍ بشأن مراقبة الأسلحة أم لا، ويبقى من الواجب النَّظر في الأمر، ولكن بالإضافة إلى كونها مسعى يتّسم بالشَّحن العاطفيِّ، وتثير هذه الحملة أيضاً الجدل حول السِّياسات المعقَّدة لتكنولوجيا استنساخ الصُّوت، فمثلاً يعدُّ Deepfaking، الذي يشمل تكنولوجيا استنساخ الصَّوت، أداةً قويَّةً، ولكن بالإضافة إلى الفوائد المترتبة، فإنَّه أيضاً يثير الجدل عندما يستخدمه أشخاصٌ خبيثون لأسبابٍ ملتويةٍ.

شاهد أيضاً: هذا هو الهدف من الذكاء الاصطناعي التوليدي: هو المستقبل بعد نهاية SaaS

وفي الواقع، كانت ElevenLabs -الشَّركة الصَّغيرة لتكنولوجيا الذكاء الاصطناعي التي تدير The Shotline- هي نفسها التي جرى استغلالها مؤخَّراً كجزءٍ من محاولةٍ لإقناع أنصار الحزب الدّيمقراطيّ بعدم التَّصويت في نيو هامبشاير، والرِّسالة المفبركة هذه، التي يزعم أنَّها من الرَّئيس، قضت مضجع السُّلطات، إلى حدِّ أنَّ هيئة الاتِّصالات الفدراليَّة FCC فرضت حظراً فعليَّاً على استخدام الأصوات المولَّدة بواسطة الذكاء الاصطناعي في المكالمات الآليَّة، وفي حالة The Shotline، بالطَّبع، فإنَّ استنساخ الأصوات هي أعمالٌ شرعيَّةٌ، وجرت الموافقة عليها من قبل ذوي الضَّحايا، على الرَّغم من أنَّ هذا قد لا يمنع بعض المنتقدين من استخدام مصطلحات غير أخلاقيَّةٍ.

ولن تصل أصوات الذكاء الاصطناعي المولَّدة إلى أيّ مكانٍ، ومن المرجَّح أن تصبحَ التكنولوجيا أكثر تطوُّراً وحسب، وعلى سبيل المثال، حصلت شركة ElevenLabs مؤخَّراً على جولة تمويلٍ بقيمة 80 مليون دولارٍ لتوسيع قدراتها، وبغضّ النَّظر عن رأيك في مساعي التَّأثير على قوانين حيازة الأسلحة النَّارية الجديدة هذه، ومن المرجَّح أن يتمَّ استخدام هذه التكنولوجيا لأغراضٍ مشابهةٍ أو ربَّما حتَّى أكثر شحناً عاطفيَّاً في المستقبل، ممّا يثير مسائل أخلاقيَّةً مماثلةً، بالإضافة إلى استخدامها في أنظمةٍ أقلَّ تحدّياً مثل خدمات دعم الشركات.

لمزيدٍ من الأخبار في عالم التكنولوجيا، تابع قناتنا على واتساب.

تابعونا على قناتنا على واتس آب لآخر أخبار الستارت أب والأعمال
آخر تحديث:
تاريخ النشر: