الرئيسية تكنولوجيا ضم Microsoft لسام ألتمان: خطوة استراتيجية بمخاطر عميقة.. إليك التفاصيل

ضم Microsoft لسام ألتمان: خطوة استراتيجية بمخاطر عميقة.. إليك التفاصيل

خطوةٌ جريئةٌ لدمج العقول المبدعة في مجال الذكاء الاصطناعي، لكن ما هي الأبعاد الأخرى لهذه الخطوة؟

بواسطة فريق عربية.Inc
images header

ربّما كانت هذهِ أعنفُ عطلةِ نهايةِ أسبوعٍ على الإطلاقِ في عالمِ التّكنولوجيا. كلّ شيءٍ يتمحوّرُ حولَ شركةِ الذّكاءِ الاصطناعيّ OpenAI وشركةِ مايكروسوفت، التي يعتبرها الكثيرون زعيمةَ صناعةِ الذّكاء الصناعيّ بفضلِ منتجها الرّائد:ChatGPT. فخلال عطلةِ نهايةِ الأسبوعِ، حدثَ كلّ ما يلي: [1]

  • أقالَ مجلسُ إدارة OpenAI الرّئيسَ التّنفيذي سام ألتمان.
  • استقال جريج بروكمان، المؤسسُ المشاركُ ورئيسُ OpenAI.
  • احتجاجاً تمّ تعيينُ ميرا موراتي، CTO لـ OpenAI، كرئيسٍ تنفيذيٍّ مؤقّتٍ.
  • اجتمعَ المجلسُ مع ألتمان للتفاوضِ بشأنِ عودته المحتملةِ إلى الشّركةِ.
  • انهارت المفاوضاتُ، وتمّ تعيينُ رئيسٍ تنفيذيّ مؤقتٍ ثانٍ، الرّئيس التّنفيذيّ السابق لـ Twitch، إميت شير، ليحلّ محلّ موراتي، ولكن هذه كانت مجرّد البداية.

المرحلةُ التاليةُ من هذه الأوبرا الصابونيّةِ تتمحوّرُ حول مايكروسوفت، أكبرِ مساهمٍ في OpenAI. إذ استثمرت مايكروسوفت ملياراتِ الدولاراتِ في OpenAI على مرِّ السنين، وتفاجأ الرّئيسُ التّنفيذيّ لمايكروسوفت، ساتيا ناديلا، على ما يبدو بإقالةِ ألتمان.

فماذا سيفعل ناديلا؟

في خطوةٍ مفاجئةٍ، أعلن ناديلا صباحَ الأمسِ على كلٍّ من X (المعروف سابقاً بتويتر) وLinkedIn أنّ مايكروسوفت قد استقطبت ألتمان وبروكمان وآخرين لقيادةِ فريقٍ جديدٍ لأبحاثِ الذّكاءِ الاصطناعيّ المتقدّمِ. في الوقتِ نفسهِ، قالَ ناديلا: إنّ مايكروسوفت ما زالت "ملتزمةً بشراكتِها مع OpenAI".

خطوةُ ناديلا هي خطوةٌ رائعةٌ في الذّكاءِ العاطفيّ، لكنّها أيضاً خطيرةٌ بطبيعتها. ولفهمِ السّببِ، دعونا نلقي نظرةً أعمقَ على القصّةِ الخلفيّةِ، ثمّ سنحلّلُ دروس الذّكاءِ العاطفيّ، ونرى ما يمكننا تعلّمهُ من كلّ هذا.

لماذا خطوةُ ناديلا ذكيّةٌ عاطفيّاً؟  لفهمِ سببِ كونِ خطوة ناديلا دراسةَ حالةٍ رائعةٍ، دعونا نحدّدُ ما نعنيه بالذّكاءِ العاطفيّ: القدرةُ على فهمِ وإدارةِ العواطفِ بفعاليّةٍ، خاصّةً في سعيٍ وراءَ هدفٍ.

فما هي أهداف ناديلا بالضبط؟

كرئيسٍ تنفيذيٍّ لمايكروسوفت، شركةٌ متداولةٌ علناً، الهمُّ الرّئيسيّ لناديلا هو في حمايةِ قيمةِ المساهمين. لهذا السّببِ استثمرت مايكروسوفت بشكلٍ كبيرٍ في OpenAI من الأساسِ؛ لقد صرّحَ مراراً وتكراراً أنّه يرى الابتكاراتِ الحاليّة في مجالِ الذّكاءِ الاصطناعيّ كمستقبلٍ، وأنّ شراكتَها مع OpenAI تدعمُ الرّسالةَ المعلنةَ لمايكروسوفت، وهي "تمكينُ كلّ شخصٍ وكلّ منظّمةٍ على الكوكبِ من تحقيقِ المزيدِ".

عندما علمَ ناديلا بأنّ ألتمان قد أُقيل، كان من الممكنِ أن يركّزَ طاقاته ونفوذه على محاولةِ إقناعِ المجلسِ بإعادةِ توظيفِ ألتمان. ربّما فعلَ ذلك. ولكنّ هذا من الواضحِ لم ينجح، وكان من الممكن أن يتورّطَ ناديلا في أمورٍ لا يمكنه السّيطرةَ عليها.

بدلاً من ذلك، وضعَ ناديلا وفريقه خطّةً: ستواصلُ مايكروسوفت شراكتها مع OpenAI، ولكنّها ستقومُ أيضاً بتوظيفِ ألتمان وبروكمان لقيادةِ فريقٍ جديدٍ من مبتكري الذّكاءِ الاصطناعيّ. ومن خلالِ اللّعبِ على الجانبين، تمتلكُ مايكروسوفت وناديلا إمكانيَّةَ الوصولِ إلى بعضِ أكثرِ اللاعبين تقدّماً في صناعةِ الذّكاءِ الاصطناعيّ.

هذا مثالٌ ملموسٌ لمبدأ رئيسيّ من مبادئ الذّكاءِ العاطفي: استغلالُ الصّعوبات.

عندما تستغلّ الصّعوباتِ، فإنك تستخدمُ موقفاً متحدياً لإنتاجِ نتيجةٍ إيجابيّةٍ، نتيجةٍ ربّما لم تكن لتحقّقها بطريقةٍ أخرى. (إذا كنت مهتماً بمثالٍ آخر، فقد كتبت مؤخّراً عن كيفيّةِ استغلالِ النّجمةِ الغنائيةِ تايلور سويفت للصّعوباتِ للقيامِ بشيءٍ لم تفعله من قبلُ).

بدلاً من الاستسلامِ أو انتظارِ تطوّرِ الأوضاعِ في OpenAI ببساطةٍ، اتّخذَ ناديلا خطوةً نشطةً. استخدمَ الوضعَ الصعبَ لخلقِ قيمة هائلة لمايكروسوفت. ولكن في حين أنّ خطوةَ ناديلا ذكيّةٌ من وجهةِ نظرٍ معينةٍ، فهي أيضاً خطيرةٌ للغايةِ.

شاهد أيضاً: سام في Microsoft وموظفون يهددون بالاستقالة لاستعادته

لماذا خطوة ناديلا خطيرة؟

لا أحد يعرفُ بالضبط لماذا تمّ دفعُ ألتمان للخروجِ من OpenAI. لكن الكثيرين تكهّنوا بأنّ هناك تبايناً كبيراً بين جانبِ الأعمالِ في الشّركةِ وهدفُ OpenAI الأكبر: تطويرُ الذّكاءِ الصّناعي بطريقةٍ آمنةٍ للبشريةِ.

على سبيلِ المثالِ، ضع في الاعتبار آراءَ إيليا سوتسكيفر، المؤسّسُ المشاركُ لـ OpenAI، والعالمُ الرّئيسيّ في الشّركةِ، وأحدُ الأعضاءِ الأربعةِ في مجلسِ إدارةِ OpenAI الذين صوّتوا لإقالةِ ألتمان. ففي مقابلةٍ حديثةٍ مع مجلّةِ MIT Technology Review، صرّح سوتسكيفر بأنّ أولويته الجديدةُ لم تكن تحسينُ ChatGPT، أو بناءُ منتجٍ جديدٍ مرتبط بل كان عمله الآن يتركّزُ حول معرفةِ كيفيةِ منعِ ذكاءٍ اصطناعيّ فائقٍ من "التّمردِ".

"سيكونُ هذا حدثاً جللاً، مُغيّراً للأرضِ، وسيكون هناكَ قبلُ وبعدُ"، يقولُ سوتسكيفر، متحدّثاً عن المخاطرِ والمكافآتِ المستقبليّةِ للذّكاءِ الاصطناعيّ. هدفُ سوتسكيفر هو محاولةُ التأكّدِ من أنّ "البعد" لا يشملْ تدميرَ البشريةِ.

سوتسكيفر ليسَ الوحيد الذي يشعرُ بالقلقِ بشأنِ إمكانيّةِ الذّكاءِ الاصطناعيّ لإحداثِ ضررٍ غير مسبوقٍ. ففي وقتٍ سابقٍ من هذا العامِ، وقّع آلافٌ من خبراءِ الذّكاءِ الاصطناعيّ والباحثين رسالةً تدعو إلى توقّفٍ لمدّةِ ستةِ أشهرٍ عن أبحاثِ الذّكاءِ الصّناعيّ، بما في ذلك أسماءٌ بارزةٌ، مثل: إيلون ماسك والمؤسّسُ المشاركُ لشركةِ آبل ستيف وزنياك، إلى جانبِ مهندسين من أمازون، جوجل، ميتا، ونعم، مايكروسوفت. وفي تناقضٍ مع ذلك، قد تُسرّع خطوةُ ناديلا من تطوّرِ الذّكاءِ الاصطناعيّ.

على سبيلِ المثالِ، في إعلانه، قالَ ناديلا: إنّ مايكروسوفت تتطلّعُ إلى "التحرّكِ  بسرعةٍ" لتزويدِ ألتمان وشركائهِ بـ المواردِ اللّازمةِ لنجاحهم. وفي منشورٍ متابعٍ، قال ناديلا: إنه متحمّسٌ لانضمامِ ألتمان كرئيسٍ تنفيذيٍّ لمجموعةِ الأبحاثِ الجديدةِ، وضعُ وتيرةٍ جديدةٍ للابتكارِ.

بمنحِ ألتمان وفريقه مواردَ جديدةً وثقةً وتشجيعاً للتحرّكِ بسرعةٍ أكبر من أيّ وقتٍ مضى، وقد يكون ناديلا يسعى وراءَ أهدافِ مايكروسوفت على حسابِ الصّالحِ العامّ.

كلّ هذا يساعدُ على توضيحِ سببٍ أهميّةِ الذّكاءِ العاطفيّ، لأنّه يشملُ جانباً مظلماً. مثل: الذّكاءِ العامِ، ونعم مثل الذّكاءِ الاصطناعيّ، الذّكاءُ العاطفيّ هو أداةٌ: يمكن استخدامه للخيرِ، أو للشرِّ. ذلك لأنّ الذّكاءَ العاطفيّ يُستخدمُ في خدمةِ هدفٍ، ويمكن أن تكونَ الأهدافُ ذات إمكانيّةٍ لإحداثِ ضررٍ كبيرٍ، خاصّةً عندما تتعلّقُ هذه الأهدافُ بتعظيمِ الرّبحِ.

هذا لا يعني الإساءةَ إلى دوافعِ ناديلا، الذي من المحتملِ أن يقومَ بكلّ هذا بنوايا حسنةٍ. ولكن من المهمِّ تذكّر أنّ النوايا الحسنةُ يمكن أن تحملَ أيضاً عواقبَ وخيمةً.

في النّهاية، هناكَ دروسٌ حيويةٌ يمكن تعلّمها من خطوةِ ناديلا:

  1. الذّكاءُ العاطفيّ هو أداةٌ مفيدةٌ يمكن أن تساعدك في الحصولِ على ما تريدُ.
  2. ما تريده في اللّحظةِ ليس دائماً ما هو الأفضلُ على المدى الطّويلِ.
  3. اسعَ للتحرّكِ ببطءٍ، لا بسرعةٍ. تأكّد من التّفكيرِ بعمقٍ في الأمورِ، واستخدامِ بوصلتك الأخلاقيّةِ لتوجيهِ قراراتك، حتى تلك التي تتّخذها بالاعتمادِ على الذّكاءِ العاطفيّ.

لنأمل أن يضعَ ناديلا وألتمان ومجتمعُ الذّكاءِ الاصطناعيّ هذه الدّروس في الاعتبارِ، وإلّا، قد تكون النّتائجُ كارثيةً.

تابعونا على قناتنا على واتس آب لآخر أخبار الستارت أب والأعمال
آخر تحديث:
تاريخ النشر: