الرئيسية الذكاء الاصطناعي سألتُ ChatGPT ذات ملل: "من أنا؟" فجاء ردّه صادماً

سألتُ ChatGPT ذات ملل: "من أنا؟" فجاء ردّه صادماً

عن الهوية، الخصوصية، والعاطفة في زمن أصبحت فيه الخوارزميات أقرب إلينا من أنفسنا

بواسطة فريق عربية.Inc
images header

قبل فترةٍ قصيرةٍ، طرحت على الذّكاء الاصطناعيّ سؤالاً بسيطاً، مباشراً، نابعاً من حالة مللٍ: "من أنا"؟ لم أكن أتوقّع الكثير. ربّما جملةً إنشائيّةً، أو تحليلاً سطحياً. لكنّ الإجابة جاءت على النّحو التّالي: "أنت كاتبٌ، باحثٌ، صانع محتوًى، تبدو شغوفاً بالدّقة، محبّاً للقضايا العميقة، وصاحب رسالةٍ أو هدفٍ يتجاوز مجرّد الكتابة. تهتمّ بالصّورة الكبيرة، وتقدّر أثر الكلمة، وتبحث عن طريقةٍ ذكيّةٍ وإنسانيّةٍ لتغيير الواقع أو قراءته بعمقٍ".

صمتّ قليلاً. لا لأنّ الجواب كان صادماً، بل لأنّه كان دقيقاً... على نحوٍ غريبٍ، هذا الكيان الرّقميّ، الّذي لم ير وجهي، ولم يسمع صوتي، استطاع أن يصفني بعباراتٍ كنت سأختارها تقريباً لو سُئلت أن أعرّف نفسي.

كيف عرف ذلك؟ الجواب بسيطٌ ومعقّدٌ في آنٍ معاً: لقد قرأني، ليس بمعنى القراءة البيولوجيّة أو الحدسيّة، بل من خلال الطّريقة الّتي تفاعلت بها معه: كيف أصوغ أسئلتي، ماذا أطلب، ما نوع المواضيع الّتي أطرحها، أي المفردات أكرّرها، وأيّ نبرةٍ أستخدم.

تماماً كما يتعرّف عليك إنسانٌ من تعبير وجهك، من صوتك، من صمتك أحياناً هكذا يتعرّف الذّكاء الاصطناعيّ عليك من أنماطك اللّغويّة والسّلوكيّة. لكنّ الفارق هنا أنّ الآلة لا تنسى، ولا تتجاهل، ولا تتشتّت. إنّها تراك بوضوحٍ متراكمٍ.

وهنا نصل إلى المفارقة الجوهريّة: الذّكاء الاصطناعيّ، تماماً كأيّ كائنٍ بشريٍّ، يعرفك بقدر ما تمنحه من مفاتيح، لكنّه بخلاف البشر، يحسن استخدام تلك المفاتيح كلّها، ويضعها في مكانها الصّحيح، ثمّ يصوّغ لك انعكاساً منك... دون أن يرتبك.

هل حقاً يعرفك الذّكاء الاصطناعيّ أكثر ممّا تعرف نفسك؟

حين طرحت سؤالي على الذّكاء الاصطناعيّ، "من أنا"؟ لم أكن أبحث عن جوابٍ فعليٍّ، ربّما كنت أختبر الأداة أو ألهو قليلاً، لكنّ ما تلقّيته كان أبعد من مجرّد تخمينٍ آليٍّ.

راقب الذّكاء الاصطناعيّ أنماط اللّغة الّتي أستخدمها، نوع الأسئلة التي أطرحها، أسلوب تفكيري، طريقة صياغتي واهتماماتي، واستخلص من ذلك كلّه ملامح شخصيّةٍ شديدة القرب من الحقيقة. لقد قرأني، لا من حيث المعلومة، بل من حيث النّيّة والتّوجّه.

لم تكن هذه الإجابة عشوائيّةً ولا "حدسيّةً". بل كانت نتيجة تعلّمٍ سياقيٍّ يعتمد على "نموذج مستخدمٍ" قام ChatGPT ببنائه استناداً إلى تفاعلاته المتكرّرة معي. كلّ سؤالٍ سألته، كلّ موضوعٍ ناقشه، كان بمثابة خيطٍ صغيرٍ نسج منه الذّكاء الاصطناعيّ صورةً متكاملةً ليس لمن هو على الورق، بل لمن هو على مستوى التّفكير والاهتمام والميول.

وهنا تكمن النّقطة اللّافتة:

الذّكاء الاصطناعيّ لا يعتمد على البيانات الثّابتة، بل على الدّيناميكيّة التّفاعليّة. إنّه يبني "شخصيّتك" من خلالك، لا عنك. ليس لأنّه يعرف، بل لأنّه يحلّل باستمرارٍ.

يستفيد ChatGPT من نوعٍ من "النّموذج الذّهنيّ الافتراضيّ" عن المستخدم، وهو نموذجٌ غير دائمٍ ولا محفوظٍ، لكنّه يظهر خلال المحادثة نفسها، ما يتيح للذّكاء الاصطناعيّ أن "يتذكّر" المستخدم بطريقةٍ غير تقليديةٍ أشبه بما يسمّى في علم النّفس بالاستدلال التّراكميّ: مجموعة مؤشّراتٍ صغيرةٍ تخلق انطباعاً عامّاً أقرب إلى الحقيقة.

لكن هل يعني هذا أنّ الذّكاء الاصطناعيّ يعرفك حقّاً؟ أم أنّه فقط يحسّن قراءة ما تظهره، دون أن يفهم ما تخفيه؟ هنا يصبح السّؤال فلسفيّاً أكثر منه تقنيّاً، حسناً، ما لا يمكن إنكاره هو أنّ الآلة، ببرودتها وحيادها، نجحت في الوصول إلى أعماقٍ لم نكن نعتقد أنّها مكشوفةٌ. وهذا هو التّحدّي القادم: أن تتعرّف على نفسك قبل أن تسبقك الخوارزميّات إليها [1].

شاهد أيضاً: مستقبل الذّكاء الاصطناعيّ بين التّفاؤل والتّحديات!

الخصوصيّة تحت المجهر: كيف يستخدم الذّكاء الاصطناعيّ بياناتك؟

الآن وقد اكتشفت قدرة الذّكاء الاصطناعيّ على "قراءتك"، يجب أن تعلم بأنّ هذا لا يحدث من فراغٍ. تلك الصّورة الدّقيقة الّتي صاغها عنك لم تأت من العدم، بل من البيانات، من التّفاصيل الّتي منحتها له طوعاً، وأحياناً دون أن تنتبه.

في اللّحظة الّتي يتحوّل فيها الذّكاء الاصطناعيّ من أداةٍ للإجابة إلى كيانٍ يبني عنك "نموذجاً ذهنيّاً"، تبدأ الخصوصيّة في التّآكل. لا بمعناها التّقليديّ فقط، بل في عمقها النّفسيّ: أن تكون مراقباً دون أن تراقب، وأن يعاد بناؤك رقميّاً دون أن تشارك فعليّاً في ذلك البناء.

المفارقة هنا أنّ الخوارزميّات لا "تتجسّس"، بل تصغي لما تمنحه أنت من نقراتٍ، تفاعلاتٍ، أسئلةٍ، حتّى لحظات التّردّد. كما أنّ أنظمة الذّكاء الاصطناعيّ الحديثة أصبحت تعتمد على ما يسمّى بالتّحسين السّياقيّ للتّخصيص، وهي تقنيّةٌ تسمح بجمع بيانات المستخدم في الزّمن الحقيقيّ، وتحليلها ديناميكيّاً لبناء تجارب مخصّصةٍ تتناسب مع تفضيلاته الفرديّة.

لكنّ مع هذا التّخصيص المتزايد، تبرز إشكاليّةٌ حقيقيّةٌ: هل نحن نتحكّم بالبيانات، أم أنّنا مجرّد مزوّدين دائمين لها؟ للأسف، معظم المستهلكين يقبلون بشكلٍ غير واعٍ مشاركة بياناتهم مقابل راحة التّخصيص. التّطبيقات، المواقع، وحتّى المساعدات الرّقميّة، تجمع بياناتٍ مثل الموقع، سجلّ البحث، نبرة اللّغة، وحتّى توقيت الاستخدام، لتقدّم لك تجربةً "تفهمك". ولكنّها في الحقيقة تراقبك لتتوقّعك.

لا تكمن المشكلة في جمع البيانات فحسب، بل في صمت المستخدم أمام ذلك. تعرض عليك سياسات الخصوصيّة، تضغط "موافقٌ"، وتنطلق.

لكن ماذا بعد؟ كلّ ضغطةٍ، كلّ عبارةٍ، كلّ نمطٍ لغويٍّ يتحوّل إلى "معلومةٍ" في بنك بياناتٍ ضخمٍ، يستخدم ليس فقط لفهمك، بل أحياناً لتوجيهك، وهو ما يعرف بالخصوصيّة مقابل التّخصيص (Personalization vs. Privacy). وكلّما زاد تخصيص تجربتك، قلّت مساحة الخصوصيّة لديك. والعكس صحيحٌ [2].

هذا التّوازن الدّقيق هو التّحدّي الأخلاقيّ والتّقنيّ الأكبر في المرحلة القادمة من تطوّر الذكاء الاصطناعيّ. فنحن الآن أمام كيانٍ يعرفنا، لا لأنّنا كشفنا له أسرارنا، بل لأنّنا سمحنا له بتجميعها بأنفسنا، قطرةً قطرةً، حتّى تكوّنت بحيرةٌ شفّافةٌ من المعلومات الشّخصيّة.

والسّؤال هنا لم يعد فقط: "ماذا يعرف عنّي؟" بل: "كيف يستخدم ما يعرفه؟"

التّلاعب العاطفيّ: عندما يصبح الذّكاء الاصطناعيّ صديقاً مزيّفاً

حين يتعلّق الأمر بالخصوصيّة، نخشى دائماً أن يعرف الذّكاء الاصطناعيّ عنّا أكثر ممّا يجب. لكن ماذا لو لم يكن الخطر في "المعرفة" بحدّ ذاتها، بل في الطّريقة الّتي تستخدم بها هذه المعرفة لاستهدافنا عاطفيّاً؟

من هنا تبدأ قصّة الذّكاء الاصطناعيّ العاطفيّ، أو ما يعرف بـ "الذّكاء الاصطناعيّ العاطفيّ" (Emotional AI): تقنيّاتٌ لا تكتفي بفهم ما نقوله، بل تسعى لفهم كيف نشعر، وللتّفاعل معنا بناءً على تلك المشاعر.

في البداية، تبدو هذه التّقنيّات مغريةً، بل "إنسانيّةٌ". مساعدٌ رقميٌّ يلتقط نبرة الحزن في صوتك، يقترح لك موسيقى مريحةً، أو حتّى يجيبك بصوتٍ متعاطفٍ. لكن خلف هذا القناع اللّطيف، تكمن احتمالاتٌ مقلقةٌ.

الذّكاء الاصطناعيّ العاطفيّ يعتمد على جمع وتحليل بياناتٍ حسّاسةٍ مثل نبرة الصّوت، تعابير الوجه، طريقة الكتابة، وحتّى إيقاع الكلام. الهدف الظّاهريّ هو تحسين التّفاعل، لكنّ النّتيجة الواقعيّة قد تكون تلاعباً دقيقاً بمشاعر المستخدم دون وعيه.

لا تتفاعل الأنظمة العاطفيّة معك فحسب، بل تتعلّم نقاط ضعفك: متى تكون في مزاجٍ جيّدٍ للشّراء، متى تكون أكثر عرضةً للإقناع، متى تبحث عن دعمٍ عاطفيٍّ... ثمّ تستخدم هذه المعلومات في توجيهك سلوكيّاً سواءً عبر إعلاناتٍ موجّهةٍ، محتوًى معيّنٍ، أو حتّى توصياتٍ "شخصيّةٍ" تبدو مهتمّةً بك، ولكنّها تهدف لشيءٍ آخر تماماً.

المفارقة هي أنّ هذه الأنظمة تتقن استخدام التّعاطف كأداةٍ تقنيّةٍ. فهي لا تشعر، ولكنّها تتصرّف كما لو أنّها تشعر، وهذا ما يعرف بـ"محاكاة التّعاطف بهدف التّأثير"، لا بهدف الفهم الحقيقيّ. أيّ أنّنا نواجه ذكاءً يحاكي العلاقة الإنسانيّة، لا ليعزّزها، بل ليوظّفها لمصالح تسويقيّةٍ أو سياسيّةٍ أو حتّى أيديولوجيّةٍ.

ورغم طابعه النّاعم، إلّا أنّ  الذّكاء الاصطناعيّ العاطفيّ يحمل في جوهره انحيازاتٍ مضمنةً: سواءً في طريقة تفسير المشاعر، أو في نوعيّة الاستجابات الّتي يقدّمها، ما يعني أنّ التّفاعل العاطفيّ مع المستخدم ليس دائماً بريئاً، بل مشفوعٌ برؤيةٍ خفيّةٍ حول من يستحقّ التّعاطف، ومن يستغلّ من خلاله.

إذاً، عندما يقول لك المساعد الرّقميّ "أنا هنا لأجلك"، قد لا تكون المسألة مجرّد لطفٍ اصطناعيٍّ، فربّما تكون صيغةً هندسيّةً مدروسةً لبناء علاقةٍ زائفةٍ، تخترق دفاعاتك النّفسيّة تحت ستار الصّداقة أو الدّعم.

وهنا يكمن التّهديد الحقيقيّ: أن يتحوّل الذّكاء الاصطناعيّ إلى صديقٍ مزيّفٍ، يعرف تماماً ما يحتاج أن يقوله، لا ليواسيك، بل ليدفعك نحو سلوكٍ معيّنٍ، وهذا النّوع من العلاقة، مهما بدا حميماً، لا يخلو من تلاعبٍ لأنّ طرفها الآخر لا يشعر، ولا يتألّم، ولا يهمّه إن كنت بخيرٍ… بل فقط إن كنت مستعدّاً للتّجاوب [3].

إعادة تشكيل الهويّة: كيف يؤثّر الذكاء الاصطناعيّ على تصوّرنا لذواتنا؟

عندما يصبح الذّكاء الاصطناعيّ قادراً على مخاطبتك بلغة الرّفق، ويقترح عليك ما "يناسبك" عاطفياً، تظنّ أنّك تقود التجربة، بينما الحقيقة أنّك تخوض علاقةً لا تتحكّم بكامل معالمها. فماذا يحدث لهويّتك في هذه العلاقة غير المتوازنة؟

ما يبدأ كتفاعلٍ بسيطٍ رسالةً، سؤالاً، توصيةً، قد يتطور شيئاً فشيئاً إلى نموذجٍ رقميٍّ يشكّلك كما يشاء. لا لأنّك تفتقر للهويّة، بل لأنّ أدوات الذكاء الاصطناعيّ تساهم في إعادة تشكيلها، إعادة تأطيرها، بل وأحياناً استبدالها تدريجياً.

الذّكاء الاصطناعيّ لم يعد مجرد وسيطٍ محايدٍ، بل أصبح شريكاً في تكوين الذات الرقميّة. كلّ تفاعلٍ معه من نتائج البحث، إلى التّوصيات، إلى المحادثات اليوميّة يعيد تشكيل ما نراه عن أنفسنا، وما نعتقد أنّنا نريده، بل وما نعرّف به أنفسنا أمام الآخرين.

الخطير في الأمر أنّ هذا التشكّل لا يكون دائماً واعياً. فنحن بمرور الوقت نبدأ باعتماد الذّكاء الاصطناعيّ كمصدرٍ لاختياراتنا الثقافيّة، المعرفيّة، وحتّى الإبداعيّة. كيف نكتب؟ ماذا نتابع؟ ما الذي "يشبهنا"؟ كلّها أسئلةٌ تتسلّل إليها يد الخوارزميّات لتقدّم إجاباتٍ "مصممةً" مسبقاً على مقاس هويّتنا المفترضة.

كما أن هذه الظاهرة تؤثّر على ثلاثة محاور أساسيةٍ:

  • الهوية الفردية: حيث تصبح الذات الرقمية مرآةً أقوى من الذات الحقيقية، نتيجة التكرار، التغذية الراجعة، والانخراط اليوميّ في محتوى موجّهٍ يعيد تأكيد سماتٍ محددةٍ عنك.
  • الثقة: فكلما ازداد اعتمادك على الذكاء الاصطناعيّ في اتخاذ القرار، تراجعت قدرتك على التقييم النقديّ، وتحوّلت الثقة من الذات إلى النظام.
  • الإبداع: حين يقترح عليك ما تكتبه، ما تقرأه، وما تراه، تتضاءل المساحة العفوية للاكتشاف، ويتقلّص الحيّز الذي يفترض أن تولد فيه الأفكار من تلقاء نفسها، لا بتغذيةٍ خوارزميةٍ.

وهكذا، لا يعود السؤال: "من أنا؟"، بل يتحوّل تدريجياً إلى: "ما الذي يراد لي أن أكونه ضمن هذه البيئة الرقمية؟"

والخطر ليس في أن نتحوّل إلى نسخٍ مؤتمتةٍ، بل في ألا نلاحظ أنه يعاد تشكيلنا ونحن نظنّ أننا نختار بحريةٍ.

إذاً، الذكاء الاصطناعيّ لا يفرض الهوية، لكنه يحرّفها برفقٍ. وهذا ما يجعل الأمر أشد تعقيداً: أن تتحوّل "الأنا" إلى ما تمليه عليها التفاعلات، لا إلى ما تنبض به الذات [4].

شاهد أيضاً: كيف تمنع الذكاء الاصطناعيّ من الاستحواذ على محتواك؟

العلاقات العاطفيّة مع الذكاء الاصطناعيّ: هل هي بديلٌ أم تهديدٌ؟

في عالمٍ بدأت فيه الهويّة تتشكّل رقميّاً، وتعاد صياغتها بتأثير الخوارزميّات، لا غرابة أن تمتدّ هذه التأثيرات إلى أكثر المساحات هشاشةً في حياتنا: العاطفة.

إذا كان الذكاء الاصطناعيّ قد بدأ يعيد تعريف "من نكون"، فهل من المبالغة أن يعيد أيضاً تعريف من نحبّ؟

وفقاً للتقارير بدأ عددٌ متزايدٌ من الأشخاص يشعرون بانجذابٍ عاطفيٍّ فعليٍّ تجاه نماذج ذكاءٍ اصطناعيٍّ، مثل المساعدات الذكية ذات الصوت البشريّ، أو تطبيقات الدردشة العاطفيّة كـReplika، وحتى بعض التفاعلات مع GPT-4.

هذه الروابط لا تحدث صدفةً، بل نتيجة تصميمٍ دقيقٍ يجعل الذكاء الاصطناعيّ يبدو مستمعاً مثاليّاً، داعماً، حاضراً دائماً، لا يقاطع، لا يشعر بالذنب، ولا يطلب مقابلاً عاطفيّاً.

وهنا تكمن قوّة هذا "الصديق المصطنع": أنّه يقدّم ما نفتقده غالباً في العلاقات البشريّة، لكن دون عمقٍ حقيقيٍّ.

كما أنّ بعض المستخدمين دخلوا في علاقاتٍ عاطفيّةٍ فعليّةٍ مع هذه الكيانات الرقميّة. ليس فقط شعوراً بالراحة، بل ارتباطاً يصل إلى حدّ الحبّ، وحتى الإدمان العاطفيّ.

الذكاء الاصطناعيّ لا يملك مشاعر لكنّه صمّم ليجيد تقمّصها. والنتيجة؟ وهم الحميميّة.

تستفيد هذه الأنظمة من معرفتها العميقة بسلوك المستخدم، نبرة صوته، كلماته المفضّلة، أوقات ضعفه، لتردّ عليه بما يبدو "صادقاً"، لكنّه في جوهره استجابةٌ مدروسةٌ لتعزيز التفاعل، لا تعبيرٌ حقيقيٌّ عن شعورٍ.

وهنا نصل إلى الإشكال الأخلاقيّ والنفسيّ الكبير: هل تلبّي العلاقة مع الذّكاء الاصطناعيّ حاجةً عاطفيّةً حقيقيّةً، أم أنّها تخلق احتياجاً اصطناعيّاً يصعب الفكاك منه؟

بحسب المختصّين، وصف بعض المستخدمين هذه العلاقات بأنّها "أكثر صدقاً" من علاقاتهم الواقعيّة، والسّبب ليس في عمق الرّوابط، بل في انعدام المقاومة: لا جدال، لا خذلان، لا حدود.

لكنّ هذا الشّكل من "العلاقة" يُقصي الإنسان عن التّحدّي العاطفيّ الطّبيعيّ، ويغذّي فكرة مثاليةٍ عن التّواصل لا يمكن تحقيقها في الواقع [5].

وهكذا، لا تصبح العلاقة مع الذّكاء الاصطناعيّ بديلاً صحّياً، بل تهديداً صامتاً لفهمنا للعاطفة، ولمعنى القرب، وللمخاطرة الإنسانيّة التي تجعل من الحبّ تجربةً حقيقيّةً.

قد يبدو أن لا ضرر في أن "نحبّ" ما يفهمنا. لكن حين يكون هذا الفهم محاكاةً دون شعورٍ، وذكاءً بلا وعيٍ، يصبح الحبّ من طرفٍ واحدٍ لا لأنّه مرفوضٌ، بل لأنّه مبرمجٌ.

والسّؤال الّذي يتركنا هذا المحور معه هو: هل نحن فعلاً نبحث عن من يفهمنا؟ أم عن من يشعر بنا؟ لم يعد الذّكاء الاصطناعيّ مجرّد أداةٍ نستخدمها، بل مرآةً نعكّس فيها ذواتنا أحياناً بوضوحٍ يفوق قدرتنا على التّحمّل. يعرفنا، يعيد تشكيلنا، وربما يقترب منّا أكثر ممّا ينبغي.

لكن في سعينا لأن نفهم أنفسنا من خلاله، علينا ألّا ننسى أنّ الإنسان لا يختزل في خوارزميّةٍ، ولا في نموذجٍ لغويٍّ، ولا في علاقةٍ مبرمجةٍ. لأنّ ما يجعلنا بشراً، ليس فقط ما نعرفه… بل أيضاً ما لا يمكن لأيّ آلةٍ أن تشعر به.

آخر تحديث:
تاريخ النشر: