Research 1 Research 2 Research 3

نعيش اليوم لحظةً يُروى فيها تسارعُ التطور التكنولوجي بوصفه حتميةً لا مفرّ منها.

يُقدَّم الذكاء الاصطناعي لا باعتباره أداةً فحسب، بل بوصفه عتبةً فاصلةً — قوةً يُفترض أنّها ستتجاوز الحكم البشري، وتحلّ محلّ العمل البشري، وتُعيد تعريف القيمة ذاتها. وفي البيئات المهنية، وفي التعليم، وبصورةٍ متزايدة في الحياة الخاصة، يُقال للنساء والرجال إنّ الآلات ستفكّر بسرعةٍ أكبر، وتُشخّص بدقّةٍ أعلى، وتتّخذ قراراتٍ أكثر عقلانيةً، بل وتُظهر رعايةً أكثر انتظاماً ممّا نستطيع نحن.

ولا يقتصر ما نشهده على القلق من فقدان الوظائف أو اضطراب الأسواق؛ بل يتعدّاه إلى ما هو أعمق: إذ يتجلّى تآكلٌ صامت لقيمة الإنسان.

يتحدّث كثير من الاشخاص اليوم كما لو أنّهم ومؤقّتون ومفيدون إلى حين تحسّن الأنظمة. بل إنّ بعضهم يعتقدون فعلاً أنّهم يُستبدلون لا في المهام فحسب، بل في القيمة أيضاً. وليس ذلك تطوّراً تقنياً فحسب، بل يمثّل تحوّلاً نفسياً وسياسياً.

ومن المهم هنا التأكيد على أنّ هذا التحوّل يقتضي اهتماماً جدّياً.

الخطر ليس في التكنولوجيا

لا تكمن المشكلة في أنّ أنظمة الذكاء الاصطناعي قوية، ولا في أنّ الأتمتة تعيد تشكيل أسواق العمل؛ إذ لطالما فعلت ذلك.

إنّ الخطر يتمثّل في أن نبدأ باستبطان السردية التي تُصوّر الآلة بوصفها متفوّقةً معرفياً، ومحايدةً أخلاقياً، وحتميةً تاريخياً  وكأنّها تمثّل شيئاً يتجاوز العقل البشري الذي أنتجها. وبناءً على ذلك، يصبح من السهل إعادة ترتيب موقع الإنسان بوصفه أقلّ قيمة.

وتتّضح أهمية ذلك لأنّ الذكاء الاصطناعي ليس ذكاءً مستقلاً نشأ من العدم؛ بل هو اختراعٌ بشري صُمّم، ورُمّز، ودُرّب، ومُوّل، وخضع للحوكمة على أيدي نساءٍ ورجالٍ متموضعين داخل أنظمةٍ اقتصادية وثقافاتٍ وعلاقاتِ قوةٍ بعينها.

ويعني التعامل مع الذكاء الاصطناعي كما لو أنّه يتجاوز الإنساني محوَ العمل البشري، والخيال، والتحيّز، والخوف، والطموح، والخيال اللاواعي الكامن فيه. ومن خلال ذلك، تُطمَس مسؤولية الفاعلات والفاعلين عنه.

فعندما يُؤطَّر الاختراع بوصفه متعالياً، يصبح من العسير مساءلته؛ وعندما يُؤطَّر بوصفه حتمياً، يصبح من العسير مقاومته؛ وعندما يُؤطَّر بوصفه أسمى من الحكم البشري، يسهل التقليل من شأن أنفسنا.

لماذا يهمّ التحليل النفسي الآن

في لحظات التحوّل التكنولوجي، لا تكفي الثقافة التقنية وحدها؛ بل تقتضي الحاجة، بالإضافة إلى ذلك، ثقافةً نفسية.

ينشغل التحليل النفسي، في جوهره، بالرغبة اللاواعية، والإسقاط، والخوف، والاعتمادية، والسرديات التي نصوغها عن السلطة. فهو لا يسأل عمّا نفعله فحسب، بل يسأل أيضاً لماذا نفعله؛ ولا يكتفي بكيفية اشتغال الأنظمة، بل يبحث في كيفية تعلّقنا بها.

وليس هذا انشغالاً تجريدياً.

فعلى سبيل المثال، يتزايد الاعتماد على “روبوتات العلاج” وأنظمة الذكاء الاصطناعي التي تُقدَّم بوصفها رفقاء عاطفيين. إذ يكشف كثير من الأشخاص مخاوفهم الحميمة، ووحدتهم، وضيقهم أمام واجهاتٍ مؤتمتة، ويُفيدون وأنّهم ويشعرون وأنّهم ومسموعون، ومُعترفٌ بهم، ومستقرّون.

وبدلاً من الاستخفاف بذلك، يدعو التحليل النفسي إلى مساءلة الشروط التي تجعل هذا النوع من التعلّق مُقنعاً. فما الذي يعنيه تفضيل نظامٍ لا يستطيع أن يستجيب حقّاً، ولا أن يتأثّر، ولا أن يُخطئ الفهم بالطريقة البشرية؟ وأيّ قلقٍ من الاعتمادية، أو الهشاشة، أو خيبة الأمل يُعاد التفاوض بشأنه عبر هذا التحوّل نحو رعايةٍ آلية؟

ولا يتعلّق الأمر بالرفاه الفردي فحسب، بل بكيفية فهم العلاقة، والمعاملة بالمثل، والاعتراف. فإذا تحوّلت الرعاية إلى شيءٍ يجري تنزيله، فماذا يحدث للعمل العلاقي الذي يُسند المجتمعات؟

الذكاء الاصطناعي بوصفه موقعاً للإسقاط

تُظهر أعمال CTDC كيف تُسقط المؤسسات الكفاءة، أو الحياد، أو السلطة على أنظمةٍ تبدو تقنية. ومن خلال ذلك، تغدو الآلة حكَماً عقلانياً، بينما يُصوَّر الإنسان مصدراً للخطأ.

يوفّر التحليل النفسي لغةً لفهم هذه الدينامية؛ إذ يسمح الإسقاط بالتخلّي عن أجزاءٍ من ذواتنا كاللايقين، والعدوانية، والطموح، والاعتمادية عبر نسبتها إلى آخر. وفي حالة الذكاء الاصطناعي، قد يسقط الاشخاص أوهام الإحاطة المطلقة والسيطرة على الآلة، بينما ينقلون في الوقت نفسه هشاشتهم إلى ذواتهم.
وتكون النتيجة مفارِقة: إذ يجري تقليل شأن الإنساني ورفع مكانة الأداة.

غير أنّ أنظمة الذكاء الاصطناعي يبنيها أشخاص يحملون تحيّزاتٍ لاواعيّاتٍ ومصالح ومخاوف وآمالاً. كما تُدرَّب على بياناتٍ تاريخية تعكس ترتيباتٍ اجتماعية غير متكافئة، وتُموَّل من جهاتٍ اقتصادية ذات حوافز محدّدة، وتُنشر داخل أنظمةٍ سياسية توزّع المخاطر بصورةٍ غير متساوية. ومن المهم هنا التأكيد على أنّ التعامل مع هذه الأنظمة بوصفها محايدة ليس دليلاً على الرصانة، بل هو تفادٍ.

الفاعلية في عالمٍ مؤتمت

قد يُولّد تسارع التكنولوجيا شعوراً بالحتمية  وكأنّ المقاومة غير مجدية، وأنّ التكيّف هو الاستجابة العقلانية الوحيدة. غير أنّ الحتمية سردية وليست قانوناً من قوانين الطبيعة.

ولا يعني استعادة الفاعلية رفض التكنولوجيا؛ بل يعني تأطيرها، أي إدراك أنّ الأدوات امتداداتٌ للنية البشرية لا بدائل للقيمة الإنسانية. وعليه، يكتسب التحليل النفسي أهميةً خاصة لأنّه يُصرّ على مساءلة النوايا الكامنة وراء البناء والتطوير.

لماذا يجري بناء هذه الأنظمة؟ وما الأوهام بالكفاءة، أو الكمال، أو المناعة التي تدفع تطويرها؟ وما القلق من الخطأ أو المحدودية الذي يُحاوَل الإفلات منه؟ فإذا لم تُساءَل هذه الدوافع، فإنّ خطر إعادة إنتاجها على نطاقٍ واسع يظلّ قائماً.

ولا يتعلّق الأمر بحماية الوظائف فحسب، بل بحماية المعنى أيضاً. فقد ارتبط العمل دوماً بالهوية، والاعتراف، والمساهمة، والانتماء، ولم يكن مجرّد إنتاجية. وعندما تبدأ النساء والرجال في الاعتقاد بأنّهنّ وأنّهم قابلون للاستبدال بأنظمة، يحدث تحوّلٌ جوهري في علاقتهنّ وعلاقتهم بذواتهنّ وذواتهم وبالآخرين والآخريات.

ليست المسألة ما إذا كان الذكاء الاصطناعي سيُغيّر العمل؛ فهو يغيّره بالفعل. بل المسألة ما إذا كان سيُسمَح له بإعادة تعريف القيمة الإنسانية من دون مساءلة.

الإنسان خلف الآلة

يمثّل الذكاء الاصطناعي إنجازاً استثنائياً للبراعة البشرية؛ إذ يعكس عقوداً من البحث، والإبداع، والتجريد الرياضي، والعمل التعاوني. ولا يعني الاعتراف بذلك التقليل من قوّته، بل يعني تحديد موقعها على نحوٍ صحيح.

يكمن الخطر في أسطرة الاختراع ومحو المخترِعات والمخترعين. فعندما يُتحدَّث عن الذكاء الاصطناعي كما لو أنّه ذكاءٌ متفوّق يتجاوز الإنسانية، تُحجَب المسؤولية الأخلاقية عن المصمّمات والمصمّمين، وعن القائمات والقائمين على نشره وحوكمته. كما تُحجَب المسؤولية الجماعية عن المستخدمات والمستخدمين.

ويُذكّر التحليل النفسي بأنّ المسؤولية لا يمكن تفويضها؛ إذ قد تتوسّط الأدوات الفعل، لكنها لا تُلغي النيّة. فإذا جرى اللجوء إلى الذكاء الاصطناعي طلباً للرفاه، أو الحكم، أو الاعتراف، وجب مساءلة ما يكشفه ذلك عن الترتيبات الاجتماعية القائمة. وإذا نشأ شعور بالقابلية للاستبدال، وجب مساءلة الأنظمة الاقتصادية التي تقيس القيمة بصورةٍ ضيّقة. وإذا ظهر خوفٌ من التقادم، وجب مساءلة السرديات التي تساوي بين السرعة والقيمة.

لا تُنتج التكنولوجيا هذه الهواجس وحدها؛ بل تُضخّم البُنى القائمة.

نقطة انطلاق مختلفة

بدلاً من الانشغال بسؤال ما إذا كان الذكاء الاصطناعي سيتجاوز البشر، يمكن طرح أسئلةٍ أخرى أكثر إلحاحاً.

ما الجوانب من الوجود الإنساني التي يجري التخلّي عنها على عجل؟

وما أشكال الرعاية، والتأويل، والحكم الأخلاقي التي لا يمكن أتمتتها من دون خسارة؟

وماذا يعني بناء أنظمةٍ تعكس أسمى القيم بدلاً من تكريس أعمق المخاوف؟

لا يقدّم التحليل النفسي حلولاً تقنية؛ بل يقدّم منهجاً لمواجهة الذات ومساءلتها. وفي أزمنة التسارع، قد يبدو التأمّل ترفاً، غير أنّه شرطٌ للفاعلية.

فإذا كان الذكاء الاصطناعي إبداعاً بشرياً، فإنّ مساره غير محدَّد سلفاً؛ إذ سيعكس النوايا، والاستثمارات، والمتخيّلات التي يجري تضمينها فيه. وبناءً على ذلك، لا تتمثّل المهمّة في منافسة الآلة، بل في رفض تقليل من شأن الإنسان.

ويبدأ هذا الرفض بفهم الذات  بما تنطوي عليه من إسقاطاتٍ واعتمادياتٍ وطموحات  وبالإصرار على إبقاء التكنولوجيا خاضعةً للمساءلة أمام القيمة الإنسانية، لا العكس.

مواصلة العمل

تُنشئ CTDC، عبر برامجها، مساحاتٍ تعليمية تساعد المشاركين والمشاركات على التفكير الجاد في السلطة، والتكنولوجيا، والمسؤولية، والأبعاد النفسية للحياة المؤسسية. ولا تُختزل هذه المساحات في تعلّم البرمجيات أو متابعة الاتجاهات الرقمية؛ بل تقوم على استقصاءٍ منظَّم لكيفية تشكّل الأنظمة عبر النوايا البشرية، وكيفية البقاء خاضعاتٍ وخاضعين للمساءلة داخلها.

تنطلق دورات CTDC Academy من هذا المنطلق: أنّ الثقافة التكنولوجية من دون ثقافةٍ نفسيةٍ وسياسية تترك النساء والرجال عرضةً لسرديات الحتمية والتقزيم.

وتدعو الأكاديمية من يعملن ويعملون في بيئاتٍ يقودها الذكاء الاصطناعي، أو يواجهن ويواجهون التباساً أخلاقياً، أو شكّاً مهنياً بالذات، إلى الانخراط العميق في هذه الأسئلة؛ ليس من أجل مقاومةٍ انعكاسية للتكنولوجيا، ولا من أجل تبنّيها من دون نقد، بل من أجل فهم القوى الواعية واللاواعية التي تُشكّل تطويرها واستخدامها.

يتطلّب هذا الانخراط وقتاً، وانضباطاً، وتأمّلاً جماعياً. فإذا لامست هذه الأسئلة اهتمامكنّ واهتمامكم، فإنّ النظر فيما إذا كانت اكاديمية CTDC توفّر المساحة المناسبة للمرحلة المقبلة من التفكير يظلّ خطوةً ذات معنى.

المراجع

Laubender, C. (2026). Why Sigmund Freud is making a comeback in the age of Authoritarian and AI. The Conversation UK. https://theconversation.com/why-sigmund-freud-is-making-a-comeback-in-the-age-of-authoritarianism-and-ai-273499
Stein, A. (2025). Editor’s Introduction: What AI Can and Can’t Do and How Psychoanalysis Can Help. American Psychoanalytic Association. https://apsa.org/what-ai-can-and-cant-do/

 

تواصلوا معنا

لديكم أسئلة؟ أفكار؟ رغبة في التعاون؟ نحن هنا ونحب أن نسمع منكم، فلا تترددوا في مدّ جسور التواصل!

"

"