الرئيسية تكنولوجيا هل هناك مشكلة عميقة وراء اعتذار Google عن كارثة صور Gemini؟

هل هناك مشكلة عميقة وراء اعتذار Google عن كارثة صور Gemini؟

ألغت الشركة تفعيل أداة إنشاء الصور في Gemini بعد الاعتراضات التي اشتكت من تعاملها بصور نمطية عنصرية

بواسطة فريق عربية.Inc
images header

بقلم جيسون آيتن Jason Aten، كاتب عمود في التكنولوجيا

ربما سمعت بأنَّ أداة الذكاء الاصطناعي التوليدي الجديدة من Google -المسمّاة Gemini- قد مرّت بأسبوعٍ صعبٍ وسيئٍ، القصَّة باختصارٍ هي أنَّ النَّاسَ اكتشفوا أنَّك عندما تعطي Gemini أمراً بإنشاء صورٍ مبنيَّةٍ على سياق تاريخيٍّ، فإنها تُدرج تعليماتٍ لتضمن أنَّ النَّتائج التي تعطيها شاملةً وتمثِّل أكبر شريحةٍ من السُّكان المتنوِّعين. [1]  

عندما ننظر إلى الأمر كما هو، فسيبدو بالتَّأكيد هدفاً منطقيَّاً، لا سيّما وأنَّ الإنترنت لطالما عكس انحيازات النَّاس الذين ينشئون المعلومات والمحتوى المتاح على الشَّبكة، إن أدخلتَ هذه المعلومات المنحازة إلى نماذج لغةٍ كبيرةٍ، مثل Gemini، فعلى الأغلب ستجد بعضاً من هذا الانحياز في نتائجك، إلَّا إذا اكتشفت كيف تضبط نموذجك للقيام بشيءٍ مختلفٍ، ومن العدل أن نقولَ إنَّ هذا هو هدف Google منذ البداية، موازنةُ نموذجها مقابل الانحياز.

المشكلة هي أنَّه في مرحلةٍ ما، بدا أنَّ Gemini مصممةٌ بطريقةٍ تجعلها -حتَّى في المواقف التي ينبغي أن تكون النتائج المولَّدة واضحةً ودقيقةً تاريخياً- تعطي نتائج متذبذبة، فمثلاً إذا طُلبَ منها صورة مجموعةٍ من الرّجال البيض يناقشون مواد الدُّستور، فإنَّها تعطي بدلاً من ذلك صورة امرأةٍ آسيويةٍ ورجلٍ أفريقيٍّ.

ألغت Google القدرة على توليد الصور في Gemini، ثمَّ نشرت الشَّركة منشوراً على مدوِّنتها فيه شيءٌ من التَّفسير لما حصل، لكنه لم يصل لمرتبة الاعتذار الكامل، إذ كتب برابهاكار راجافان Prabhakar Raghavan نائب الرَّئيس الأوَّل للمعرفة والمعلومات في Google:

"من الواضح أنَّ هذه الميزة لم تُحقِّق الغاية المنشودة، كانت بعض الصُّور التي أنشأتها الأداة غير دقيقةٍ، بل وحتَّى مُهينة، ونحن ممتنُّون للمستخدمين لتقديمهم التَّغذية الرَّاجعة بهذا الخصوص، ونأسف أنَّ هذه الميزة  لم تعمل جيداً".

كي نكون واضحين، ليست المشكلة في أنَّ الميزةَ لم تعمل بشكلٍ جيدٍ، إذ يبدو أنَّها عملت تماماً بالشَّكل الذي صُمِّمت عليه، كما يتابع المنشور في شرحه:

"عندما أنشأنا هذه الميزة في Gemini، ضبطناها بشكلٍ يضمن أنَّها لن تقعَ في الفخاخ التي رأيناها في تكنولوجيا توليد الصور في الماضي، مثلُ: إنشاء صورٍ عنيفةٍ أو صريحةٍ جنسيَّاً، أو تصويرٌ لأناسٍ حقيقيين، ولأنَّ مستخدمينا موجودون في جميع أنحاء العالم، فنحن نريد أن يكون عملنا مناسباً للجميع، إن طلبت صورة لاعبي كرة قدم، أو شخصاً ينزِّه كلبه، فقد تريد تلقِّي صور مجموعةٍ متنوّعةٍ من الناس بهذه المواصفات، وقد لا تريد تلقِّي صور مجموعةٍ من النَّاس من عرقٍ واحدٍ فقط (أو أيّةِ خاصَّة واحدة أخرى).

مع ذلك، إذا أعطيت أمراً لـ Gemini بإنشاء صورٍ لنوعٍ محدَّدٍ من الأشخاص، مثلُ: "مدرِّسٌ أفريقيٌّ في فصلٍ دراسيٍّ"، أو "طبيبٌ بيطريٌّ أبيضُ مع كلبٍ" أو أشخاصٌ في سياقٍ ثقافيٍّ أو تاريخيٍّ محدَّدٍ، فينبغي أن تتلقَّى ردَّاً يعكس ما طلبته بدقّةٍ."

شاهد أيضاً: Google تطلق Gemini، النموذج الذي يتفوّق على ChatGPT في كل الاختبارات

لقد تبيَّن أنَّ طريقةَ تصميمها لم تكن رائعةً، وبحسب راجافان فإنَّ Google لم تأخذ في اعتبارها الحالات التي ينبغي ألَّا تعرض فيها مجموعةً متنوعةً من النَّاس، وفي أحد الأمثلة التي أشير إليها عبر الإنترنت، طُلب من الأداة صورةٌ لسيناتور أمريكيّ من بداية القرن التَّاسع عشر، وكانت النَّتيجة صورة امرأةٍ آسيويةٍ، وقد كان انتخاب أوَّل امرأةٍ لتكون في مجلس الشُّيوخ عام 1932، في حين كان انتخاب أوَّل امرأةٍ أمريكيّةٍ من أصل آسيوي عام 2013.

كما قال رافاجان أنَّ النَّموذج رفض الإجابة على بعض الأوامر؛ لأنَّه كان يفسِّر خطأً بعض الأوامر العاديّة جداً على أنَّها حسَّاسةٌ، يبدو أنَّ هذا يتناول بعض الشَّكاوى التي عبّرت عن أنَّ Gemini رفضت الاستجابة لطلباتٍ بإنشاء صورة رجلٍ أبيض.

الأمر وما فيه هو أنَّ Gemini مجرَّد أداةٍ برمجيةٍ، صحيحٌ أنَّها قد تفعل أموراً لم يحسب لها صانعو البرنامج حساباً، إلَّا أنَّها أداةٌ تعمل فقط ما صُمَّمت لتفعله، حتَّى لو كان ذلك بشكلٍ غير مقصودٍ، كانت Gemini تتصرَّف تماماً بالطَّريقة التي أرادتها Google أن تتصرَّفَ بها، بناءً على ما تقوله أنَّه قِيم الشُّموليَّة لديها.

لا تُعدُّ هذه القيم سيئةً في أصلِها، ولا أعتقد أنَّ لمشكلة Google هنا علاقةٌ بالحروب السّياسيَّة أو الثَّقافيَّة، ولا أعتقد أنَّ أيَّ أحدٍ في Google كان يقصد شيئاً غير تقديم ما ظنُّوه أفضل النَّتائج بالنّسبة لمستخدميهم، لو كنتَ شركةً تمتلك منتجاً على الإنترنت يخدم مليارات النَّاس في كل أنحاءِ العالم، فسترغب بالتَّأكيد أن تُمثِّل النَّتائج التي ينشئها منتجك أكبرَ عددٍ ممكنٍ من هؤلاء النَّاس.

القصَّة هي أنَّ هذا الأمر لم يكن غائباً عن التَّوقُّع، فقد بنت Google شيئاً أرادته أن يُمثّلَ مجموعةً محدَّدةً من القِيم، ولم يخطر ببالٍ أحدٍ أنَّ هناك بعض الأمثلة قد يكون فيها ضبط النَّموذج ليعوِّض حالة الانحياز بطريقةٍ مطلقةٍ إشكاليَّاً، أو ربَّما خطر ذلك ببالهم ولم يشعروا أنَّ عليهم قولُ أيّ شيءٍ بهذا الصَّدد، في كلتا الحالتين، الأمر في غاية السُّوء، ويمكنني التَّأكيد أنَّ الأمر الثَّاني أسوأُ بكثيرٍ.

إن كنت شخصاً ذكيَّاً بارعاً في عملك، ووجدت أنَّ أداة الذكاء الاصطناعي التوليدي التي تُنشئ الصُّور في منتجك تُعطي نتائج غير دقيقةٍ، ثمَّ تخشى التَّصريح بأيّ شيءٍ؛ لأنَّ الإشارة إلى شيءٍ كهذا -في محاولةٍ منك لتجنُّب ردّ الفعل العنيف في العلاقات العامَّة والذي قد يأتي بصورٍ نمطيَّة لا متناهيَّةٍ- يُعدُّ انتحاراً مهنيّاً، فأنت تعاني من مشكلةٍ حقيقيَّةٍ، وكأنَّك تريد عندها أن يشيرَ أولئك النَّاس إلى المشكلة في كيفيَّة تصميمك وضبطك للنَّموذج قبل أن تطرحه للعمل.

شاهد أيضاً: 8 توقعات عملية تتعلق بالذكاء الاصطناعي التوليدي في 2024 عليك معرفتها

لا يمكن أن يعتقدَ متَّخذو القرارات في شركةٍ ما أنَّهم دوماً على حقِّ، فهناك حدٌّ لهذه الثِّقة، كما أنَّك إن لم تتحلَّ بهذه الثِّقة فلن تنجز شيئاً، مع ذلك يبدو أنَّ هناك بالفعل مستوىً عالٍ من الغطرسة في الشَّركات الكبرى في العالم، وتقريباً كلُّ هذه الشَّركات تعمل في مجال التِّكنولوجيا.

ويبدو أنَّ هناك اعتقاداً شائعاً في هذه الشَّركات بأنَّك إن كسبت مبلغاً فلكيّاً من المال من بيع البرمجيَّات، فلا بدَّ أنَّ هذه البرمجيَّات خيرٌ صِرفٌ بالنِّسبة للمجتمع، وبذلك تكون أفكارك عمَّا يحتاجه العالم حتماً صحيحةً، عندما يصبح هذه هو المعيار في شركتك، فلن يزعج موظَّفوك أنفسهم ليخبروك شيئاً عندما يعتقدون أنَّك على خطأٍ، أو عندما تكون على وشك طرح منتجٍ في السّوق يُمكن أن يثيَر المشاكل.

هذه بالمناسبة هي مشكلة الثَّقافة التي أتحدَّث عنها، لا يتعلّق الأمر بالسِّياسات أو اليقظة والوعي بالأمور العنصريَّة، أو أيَّة كلماتٍ رنّانةٍ أخرى تتعلَّق بالحرب الثَّقافيَّة، لكنَّه يتعلَّق بالثَّقافة داخل شركةٍ تجعل النَّاس غير راغبين بالتَّحدُّث بصراحةً عندما يرون أمراً قد يُسبّب مشكلةً؛ وذلك لأنَّ إخبار رئيس عملهم بأنَّه مخطئٌ يثير قلقهم.

وهذا ليس ذنبهم، فالأمر برمَّته هو مشكلة الثَّقافة التي تبنيها داخل الشَّركة كقائدٍ، وكما تكتشف Google الآن، عليك أن تبني ثقافةً يخبرك موظَّفوك فيها عندما يرونك تمشي برجليك نحو كارثةٍ كبيرةٍ، عندها ستتمكَّن من اتّخاذ قراراتٍ أفضل، حتَّى لو لم تكن هذه القرارات دوماً هي القرارات التي اعتقدت أنَّها صحيحةٌ.

لمزيدٍ من الأخبار في عالم التكنولوجيا، تابع قناتنا على واتساب.

تابعونا على قناتنا على واتس آب لآخر أخبار الستارت أب والأعمال
آخر تحديث:
تاريخ النشر: