تكنولوجيا

في عام 2023: تطورات الذكاء الاصطناعي بين كرٍّ وفرٍّ

هذا العام جاء مُحمّلاً بالانتصارات والكوارث جراء اعتماد العالم لـ ChatGPT، فما هو قادم؟

بواسطة فريق عربية.Inc
images header

أصبحَ الذّكاءُ الاصطناعيّ سائداً في عام 2023، بعد طولِ انتظارٍ وترقّبٍ، ومع ذلكَ، لا يزالُ هناك طريقٌ طويلٌ ينبغي اجتيازه، لكي تتناسبَ التّقنيةُ مع تخيّلاتِ النّاسِ وتطلّعاتهم بشأنِ الآلاتِ الّتي تشبه البشر. وشكّل ChatGPT محفّزاً للكثيرِ من الضّجة الّتي أُثيرت حول الذكاء الاصطناعي هذا العام. وأعطى روبوت الدّردشة هذا فكرةً عن التّقدمِ الحاصلِ مؤخّراً في علومِ الحوسبةِ، حتّى وإن لم يفهم الجميعُ بالضّبطِ كيف يعملُ أو ما الّذي يُمكن القيام به. [1]

وتقولُ العالمةُ الرّائدةُ في مجالِ الذّكاء الاصطناعيّ، في-في لي:

"سأسميّ هذه اللّحظةَ لحظةَ انعطافٍ في تاريخِ البشريّة، وآملُ أن يكونَ عام 2023، عاماً يتذكّر فيه النّاس التّغييرات الجذريّةِ التي حصلت في مجالِ التّكنولوجيا، وكذلك في وعي النّاس عامّةً. إلى جانبِ ذلك، تبيّن لنا هذا العام كم التّعقيد المترافق مع هذه التّكنولوجيا".

ووفقاً لقولها كانت هذه السّنةُ فرصةً للنّاسِ لفهمِ ماهيّةِ هذا الاختراعِ، وكيفيّة استخدامهِ، والآثارِ المترتّبةِ عليهِ، بما في ذلكَ كلّ الإيجابيّاتِ والسّلبيات المترافقةِ مع مجيئهِ".

المخاوف بشأن الذكاء الاصطناعي

بدأت أولى المخاوفِ بشأنِ الذّكاءِ الاصطناعيّ بالظهورِ في عام 2023 بعد فترةٍ وجيزةٍ من أوّل يومٍ في السّنةِ الجديدةِ، عندما أُعيد فتحُ الفصولِ الدّراسيّةِ، وبدأت المدارسُ من سياتل حتّى باريس في حظرِ استخدامِ ChatGPT. إذ كان المراهقون يطلبون بالفعلِ من روبوتِ الدّردشةِ -الّذي أُطلقَ في نهايةِ عام 2022- كتابةَ المقالاتِ والحصولَ على إجاباتٍ للواجباتِ المنزليّةِ.

تعملُ النّماذجُ الكبيرةُ للذّكاءِ الاصطناعيّ والّتي تقفُ وراءَ تكنولوجيا، مثل ChatGPT، عن طريقِ تخمينِ الكلمةِ التّاليةِ في الجملةِ بعد أن "تعلّمت" أنماطَ مجموعةٍ ضخمةٍ من الأعمالٍ الّتي دوّنها البشرُ، ولكن كانت كثيراً ما تُخطئ في استنتاجِ المعلوماتِ. ومع ذلك، بدت النّتائجُ طبيعيةً إلى حدٍّ كبيرٍ حتّى إنّها أثارت الفضولَ بشأنِ التّطوراتِ المستقبليّةِ للذّكاءِ الاصطناعيّ واستخدامهِ المُحتملِ للخداعِ والتّضليلِ.

وتصاعدت المخاوفُ مع ظهورِ هذه الفئةِ الجديدةِ من أدواتِ الذكاء الاصطناعي التوليدي -الّتي لا تنتجُ فقط كلماتٍ بل صوراً روائيّةً وموسيقى وأصواتٍ اصطناعيّةٍ، إذ شكّلت تهديداً لموردِ رزقِ كلٍّ من الأشخاصِ الّذين يمتهنون الكتابةَ أو الرّسمَ أو العزفَ أو البرمجةَ ليعتاشوا منها. وقد أدّى ذلكَ إلى إضراباتٍ من قِبل كتَّاب وممثلي هوليوود، والدّخول في منازعاتٍ قضائيّةٍ من قِبل الفنّانين التّشكيليّين والمؤلّفين ذوي الإصداراتِ الأكثر مبيعاً.

وقد حذّر بعضُ أبرزِ العلماءِ في مجالِ الذّكاءِ الاصطناعيّ من أنّ التّقدّمَ الحاصلَ للتّكنولوجيا دون رقابةً، يتّجه نحو التّفوقِ على الإنسانِ، وربّما يُشكّل تهديداً لوجودهِ، في حين وصف علماء آخرون مخاوفهم بأنّها مبالغٌ فيها أو لفتوا الانتباهَ إلى مخاطر أكثر آنيةً.

وبحلولِ فصلِ الرّبيع، انتشر تركيبُ الصّورِ المفبركةِ الموّلدةِ بواسطةِ الذكاء الاصطناعيّ في حملاتِ الانتخاباتِ الأمريكيّةِ، الّتي كان بعضها أكثر إقناعاً من الآخر، إذ أظهر أحدها بشكلٍ خاطئٍ دونالد ترامب، وهو يعانقُ خبير الأمراضِ المعديةِ السّابق للبلادِ. كما زادت هذه التّكنولوجيا من صعوبةِ التّمييز بين لقطاتِ الحربِ الحقيقيّةِ والمفبركةِ في أوكرانيا وغزّة.

وبحلولِ نهايةِ العامِ، تحوّلت أزماتُ الذّكاءِ الاصطناعيّ إلى الشّركةِ المُصنّعة لـ ChatGPT نفسها، وهي شركةُ OpenAI النّاشئة -ومقرّها سان فرانسيسكو- الّتي كادت أن تُحلّ تماماً بسببِ الاضطراباتِ التي شهدتها الشّركةُ بسببِ رئيسها التّنفيذيّ ذي الشّخصيّة الكاريزميّة.

وأيضاً إلى قاعةِ اجتماعٍ حكوميّةٍ في بلجيكا، حيث خرج زعماء سياسيّون من الاتّحاد الأوروبيّ -بعد أيامٍ من المحادثاتِ المكثّفةِ مع استنفاذِ كلّ جهودهم- باتّفاقٍ على أوّل ضماناتٍ قانونيّة رئيسيّةٍ للذّكاءِ الاصطناعيّ في العالِم، ولكن لن يبدأَ العملُ بالقانونِ الجديدِ للذّكاءِ الاصطناعيّ حتّى عام 2025، ولا يزال أمامَ الهيئاتِ التّشريعيّة الأخرى -بما في ذلكَ الكونغرس الأمريكيّ- طريقٌ طويلٌ قبل أن تتمكّنَ من تشريعِ قوانينٍ خاصّةٍ بها.

هل في الأمر نوع من التضخيم؟

لا شكّ أنّ المنتجاتِ التّجاريّةِ للذّكاءِ الاصطناعيّ الّتي تمّ الكشفُ عنها في عام 2023، اعتمدت على إنجازاتٍ تكنولوجيّةٍ غير ممكنةٍ في مراحل مبّكرة من أبحاثِ الذّكاءِ الاصطناعيّ، الّتي تعودُ إلى منتصفِ القرنِ العشرين. ولكن يُعتبر آخر اتّجاهٍ في تكنولوجيا الذّكاءِ الاصطناعيّ التّوليديّ في ذروةِ التّضخيمِ، وفقاً لشركةِ أبحاثِ السّوقِ Gartner، الّتي رصدت ما تُسمّيه "دورةَ التّضخيم" للتّكنولوجيا النّاشئةِ منذُ التّسعيناتِ. ولتفهمَ ذلكَ، تخيّل قطارَ الملاهي الخشبيّ يتّجه نحو أعلى تلّةٍ، ومن ثمّ هو على وشكِ الهبوطِ إلى ما تصفهُ Gartner بأنُه "قاعُ زوالِ الوهمِ" قبل العودةِ إلى الواقعِ.

- ويقول المحلّلُ في شركة Gartner، ديف ميكو:

"بلغ الذّكاء الاصطناعيّ التّوليدي ذروةَ التّوقعاتِ المبالغِ بها، وتوجدُ تصريحاتٌ ضخمةٌ صادرةٌ عن شركاتِ الذّكاءِ الاصطناعيّ التّوليديّ ومنتجيهِ حول إمكانيّاته، وقدرتهِ على تحقيقِ تلكَ الإمكانيّاتِ."

وتعرّضت شركةُ غوغل لانتقاداتٍ هذا الشّهر بسببِ نشرها فيديو توضيحيٍّ لنموذجها الذّكي الأكثر قدرةً، المُسمّى Gemini، بطريقةٍ جعلتهُ يظهرُ بصورةٍ أكثر إثارةً للإعجابِ، وشبيهةً بالبشرِ.

- قالَ ميكو:

"إنّ المطورين الرّائدين في مجالِ الذّكاء الاصطناعيّ يحاولون بشتّى الطّرق تطبيقَ أحدثِ التّقنياتِ، الّتي يتناسبُ معظمها مع خطوطِ منتجاتهم الحاليّةِ، سواء كانت محرّكاتِ بحثٍ أو برامج إنتاجيّة مكتبيّة. ولكن هذا لا يعني أنّ العالمَ سيستخدم هذه التّكنولوجيا بتلكّ الطّريقةِ.

- وأضاف: 

"بقدرِ رغبةِ كلٍّ من شركة Google وMicrosoft وAmazon وApple في أن نتبنّى الطّريقةَ الّتي يفكّرون بها حول تقنياتهم وكيفيّة تقديمهم لتلكَ التّكنولوجيا، أعتقدُ أنّ عمليّة التّبني تلكَ تأتي فعليّاً من الأسفلِ نحو الأعلى".

هل الأمر مختلف هذه المرة؟

من السّهلِ أن ننسى أنّ هذه ليست الموجةُ الأولى لاستغلالِ الذّكاء الاصطناعيّ تجاريّاً، فقد ساعدت تقنيّاتُ الرّؤيةِ الحاسوبيّةِ الّتي طوّرها العالمُ (لي) وعلماء آخرون في فرزِ قاعدةِ بياناتٍ ضخمةٍ من الصّورِ للتّعرّف على الأشياءِ ووجوه الأشخاصِ والمساعدةِ في توجيهِ السّيارات ذاتيّةِ القيادةِ. وأدّت التّطوراتُ في مجالِ التّعرّف على الصّوتِ إلى جعلِ مساعدي الصّوتِ، مثل: Siri وAlexa، أدواتٍ لصيقةٍ بحياةِ العديدِ من الأشخاصِ.

- ويقولُ مؤسّسُ شركة Siri Inc. توم غروبر:

"عندما أطلقنا Siri في عام 2011، كانت في ذلكَ الوقتِ أسرع تطبيقٍ استهلاكيٍّ نموّاً، وكانت وحدها أهمّ التّطبيقات الرّائجة من تطبيقاتِ الذّكاء الاصطناعيّ الّتي شاهدها النّاسُ على الإطلاق"

وفيما بعد اشترتها شركة Apple، وجعلتها ميّزةً أساسيّةً في هواتفِ iPhone، ولكن غروبر يعتقد أنّ ما يحدثُ الآن هو كبر موجةٍ على الإطلاقِ للذّكاءِ الاصطناعيّ، مفسحاً المجالَ أمام إمكانيّاتٍ جديدةٍ ومخاطر مقبلة.

"إنه ليفاجئنا بأنّنا استطعنا أن نرَ هذه المقدرةَ اللّغويةِ الفائقةِ صدفةً، من خلالِ تدريبِ آلةٍ على لعبِ لعبةِ السوليتير عبر جميعِ الأجهزةِ الموصولةِ بالإنترنت،" هذا ما قاله غروبر، وأضاف: "إنّه أمرٌ يثير الدّهشةَ."

قد تأتي المخاطرُ بسرعةٍ في عام 2024، حيثُ يُمكن أن تتدفّقَ الصّورُ والفيديوهاتُ المفبركةُ المولّدةُ بواسطةٍ الذّكاٍء الاصطناعيّ على نطاقٍ واسعٍ خلال حملاتِ الانتخاباتِ الوطنيّةِ الرّئيسيّةِ في الولاياتِ المتحدّةِ والهند وفي أماكن أخرى. وعلى المدى الطّويلِ، يُمكن أن تزيدَ قدراتُ تكنولوجيا الذّكاء الاصطناعيّ -المتسارعةُ في مجالِ اللّغةِ والإدراكِ البصريّ والتّخطيطِ خطوة بخطوة- من فرصِ ظهورِ المساعدِ الرّقميّ، ولكن ذلكَ فقط إذا تمّ منحها صلاحيّة الوصولِ إلى الحلقةِ المركزيّة لمسارِ حياتنا الرقميّةِ، وفقاً لقول غروبر. وأضافَ:

"يُمكنه التّعاملُ مع اهتماماتكَ بذكاءٍ، قد تجده يقولُ: 'يجبُ أن تشاهد هذا الفيديو، أو يجبُ أن تقرأَ هذا الكتاب، أو عليكَ أن تردَّ على اتّصالِ هذا الشّخصِ، وهذا هو ما يفعلهُ مساعدٌ تنفيذيٌّ حقيقيٌّ. ويمكننا الوصولُ إلى ذلكَ، ولكن مع وجودِ مخاطر كبيرة فيما يتعلّقُ بالمعلوماتِ الشّخصيّةِ والخصوصيّةِ."

آخر تحديث:
تاريخ النشر: