اختبار التّقدير: التّواصل الاصطناعيّ في سياق التّطوّر



لقد بدأ عصر الذّكاء الاصطناعيّ في التّواصل المؤسّسي بالفعل، ولكن هناك اختبار قد لا يجتازه أبداً.

بقلم ينس سيفرت-بروكمان Jens Seiffert-Brockmann

 

بصفتي من محبّي الخيال العلمي، لطالما نالت أشكال الحياة الاصطناعيّة إعجابي . مثل R2-D2 وC-3PO في حرب النّجوم، وديفيد وبيشوب في سلسلة أفلام الفضائيّين، وعلى الأخصّ داتا، الآليّ في ستار تريك الّذي يريد أن يصبح أكثر إنسانيّةً قبل كلّ شيء. إنّ قصّة داتا الآليّ على وجه الخصوص، هي قصّةٌ تنويريّة، بسبب مواجهاته العديدة الصّعبة مع السّمات البشريّة الّتي تتفادى قوّته الحاسوبيّة: تقدير الفنّ، والفكاهة، والأهمّ من ذلك كلّه، العلاقات الحميمة والعميقة. فمع كلّ قوّته الحاسوبيّة، يظلّ العقل البشريّ بالنّسبة لـ داتا لغزاً غامضاً.

وقد تنبّأ داروين في نهاية عمله الأساسيّ "عن أصل الأنواع" بمستقبلٍ مشرقٍ لدراسة العقل البشري. وعلى مدى العقود القليلة الماضية استنتج علماء النّفس التّطوّريون أنّ العقل يجب أن يكون "مجموعة من آلات معالجة المعلومات الّتي صمّمها الانتقاء الطّبيعي لحلّ المشاكل التّكيفيّة الّتي واجهها أسلافنا الصّيادون وجامعو المعلومات"، كما كتبت عالمة النّفس التّطوّري ليدا كوزميدس وشريكها عالم الأنثروبولوجيا جون توبي في عام 1997. فإذا كان العقل قد تطوّر كأيّ جزءٍ آخر من أجزائنا، فهو بالتّأكيد يجب أن يشمل قدرتنا على التّواصل أيضاً. وبالتّالي، يبدو من المعقول أن نؤسّس أيضاً دراسة التّواصل البشريّ في التّفكير التّطوّري.

حيث يزوّدنا التّطوّر برؤىً ثاقبةٍ في طريقة عمل التّواصل البشري. فعندما يقول علماء النّفس التّطوّري إنّنا نمتلك أدمغةً من العصر الحجري، فإنّهم يقصدون أنّ الأسلاك الّتي نبني عليها قدراتنا على التّواصل تعود إلى زمنٍ أبعد بكثيرٍ من تعليمنا الجّامعي أو من مرحلة الحضانة أو من تفاعل آبائنا وأصدقائنا معنا. لقد رسّخ التّطوّر برامج التّواصل في عقولنا الّتي أثبتت فائدتها لأسلافنا في الماضي.

وفي بداية التّسعينيات، كان لدى عالم الأنثروبولوجيا البريطاني روبن دنبار وفريقه فكرةً مثيرةً للاهتمام. اقترح دنبار أنّ العامل الرّئيسي في تطوّر عقولنا هو حياتنا الاجتماعيّة والحاجة إلى التنقّل في النّسيج الاجتماعيّ لمجتمعاتنا. وتوقّع أنّه استناداً إلى حجم القشرة المخيّة الحديثة لدينا، يمكن للفرد البشريّ العاديّ أن يقيم حوالي مئةً وخمسين علاقةً اجتماعيّةً ذات مغزى ويحافظ عليها - وهو رقمٌ ثبتت صحّته تجريبيّاً في العديد من الدّراسات منذ ذلك الحين، على سبيل المثال من خلال النّظر إلى كمّية بطاقات عيد الميلاد الّتي تُكتب، أو متوسّط عدد الأصدقاء على فيسبوك.

بالتّأكيد يمكن للبعض منّا أن يستمتع أكثر من ذلك، ولكن من ناحيةٍ أخرى، قد يكون البعض الآخر أقلّ استمتاعاً. وعندما يتعلّق الأمر بالتّواصل الاستراتيجيّ والعلاقات العامّة تكون الرّسالة الأساسيّة واضحةً ومباشرة: فالعلاقات الموثوقة الّتي يمكن أن يقيمها القائمون على التّواصل بالنّيابة عن المؤسّسة محدودة. وحتّى أفضل المحترفين لا يمكنهم التحدّث والتّفاعل إلّا بقدرٍ محدود.

 

قلب اللّعبة رأساً على عقب

كما هو الحال في كثيرٍ من الأحيان في هذه الأيام، سيقلب الذّكاء الاصطناعيّ اللّعبة رأساً على عقب. فمع كل الاحتمالات الّتي تبدو لا نهائيّةً للذّكاء الاصطناعي، لا يحتاج المرء أن يكون نوستراداموس للتنبّؤ بأنّ هذه التّكنولوجيا سيكون لها تأثيرٌ عميقٌ على مهن الاتّصالات، إذ أنّها قد تركت بالفعل تأثيرها.

 

ففي عام 1950، ابتكر عالم الرّياضيّات البريطانيّ العبقري آلان تورينج اختباراً أطلق عليه اسم "لعبة التّقليد"، ولكنّه دخل الذّاكرة الجّماعيّة باسم "اختبار تورينج". ويعني اجتياز الاختبار أنّ الآلة قادرةٌ على النّجاح في الاختبار باعتبارها عاملاً بشريّاً في محادثةٍ مع فردٍ بشريٍّ آخر. ولكن لفترةٍ طويلة جداً، بدا أنّ عصر الآلات الشّبيهة بالإنسان بعيد المنال.

 

كذلك حقّق الذّكاء الاصطناعيّ إنجازاتً مذهلةً على مدى العقود القليلة الماضية. فقد تغلّب حاسوب IBM Deep Blue على بطل العالم في الشّطرنج آنذاك غاري كاسباروف في مباراةٍ في مركز التّجارة العالميّ في مدينة نيويورك في عام 1997. واشتهرت لعبة Alpha Go للذّكاء الاصطناعيّ من Google بتغلّبها على أستاذ لعبة Go الشّهير عالميّاً فان هوي في عام 2015، وفي عام 2019 أثبت روبوت البوكر Pluribus أنّه حتّى أفضل لاعبي البوكر من البشر لم يعد ندّاً للذّكاء الاصطناعيّ في لعبة تكساس هولدم بلا حدود. وقد أصبحت قائمة الإنجازات الّتي تحقّقت ببطءٍ في البداية أكثر من أيّ وقتٍ مضى، أطول من أن يتمّ سردها.

ولكنّنا كبشر يمكننا أن نجد العزاء في حقيقة أنّنا بالتّأكيد سنكون قادرين على كشف محاولة الآلة التّحدّث إلينا. وبصفتنا متواصلين، ربّما نكون قد اعترفنا بالبراعة الحسابيّة للآلة. ولكن معظمنا كان، ولا يزال، يسخر من فكرة أنّ الذّكاء الاصطناعيّ قد يقوم قريباً بالتّواصل مع المؤسّسات أيضاً. وبعد ذلك، وبشكلٍ حتمي، ظهر جيلٌ جديدٌ من الذّكاء الاصطناعيّ على السّاحة، وهو الذّكاء الاصطناعيّ المبنيّ على نماذجٍ لغويّةٍ كبيرة.

 

لم يستغرق الأمر وقتاً طويلاً حتى نجح الذّكاء الاصطناعيّ المفتوح ChatGPT من Open AI أو LaMDA من Google في اجتياز اختبار تورينج - ممّا أدّى إلى هدم خطّ الدّفاع الأخير في عام 2022. ومع كلّ الأدب والمعرفة الموجودة في العالم الّتي يتمّ تغذية الذّكاء الاصطناعيّ بها - كقصائد عمر الخيام، أو خفّة دم مارك توين، أو قصص تشيماماندا نجوزي أديتشي، على سبيل المثال لا الحصر - لماذا لا يصبح الذّكاء الاصطناعيّ عامل رواية قصص قويّاً مثل الإنسان؟

 

المحادثات ذات الأهمّية الاستراتيجيّة

تخيّل ذكاءً اصطناعياً تنظيميّاً يمكنه إجراء محادثاتٍ ذات أهمّيةٍ استراتيجية، ليس فقط مع بعض مجموعات أصحاب المصلحة، ولكن معهم جميعاً؟ هل وصلنا إلى عصرٍ جديدٍ من التّواصل، حيث يمكن للآلات أن تقوم ببناء العلاقات بالنّيابة عنّا؟ لم تعد هناك قفزةٌ كبيرةٌ بعد الآن لتخيّل ذكاءٍ اصطناعيٍّ قوي، يقوم بتنفيذ استراتيجيّة التّواصل الخاصّة بأصحاب المصلحة من البشر، وينتج كلّ المحتوى بنفسه.

 

ربّما يكون يوم المجتمع الكامل الأداء، كما اقترحه روبرت هيث، الّذي سيأتي به الذّكاء الاصطناعيّ، أقرب ممّا نتخيله. ولكن ربّما ليس كذلك. فلا يزال أمام الذّكاء الاصطناعيّ اختباراً آخر يجب أن يجتازه، وهو اختبارٌ يمكن أن أسمّيه "اختبار التّقدير".

وبما أنّ عقولنا غير مجهّزةٍ لفهم العالم الرّقميّ الحديث الّذي يقوده الذّكاء الاصطناعيّ، فإنّ الأمر نفسه ينطبق على الذّكاء الاصطناعيّ. فبالرّغم من كلّ المعرفة البشريّة الموجودة في العالم، إلّا أنّ الآلة تفتقر بالتّأكيد إلى نموذجٍ داخليٍّ لما يكمن في صميم العلاقات الإنسانيّة: التّقدير المتبادل والمعاملة بالمثل. فالآلة لا تريد أيّ شيءٍ منّا، فهي تأخذ فقط إذا عُرض عليها وتعطي عندما يُطلب منها. أمّا المرور كإنسانٍ في محادثةٍ عابرة فهو شيءٌ واحد. لكنّ الدّخول في علاقةٍ متبادلةٍ مبنيّةٍ على الثّقة شيءٌ آخر تماماً.

في نهاية المطاف، قد تظلّ طبيعتنا البشريّة تتغلّب علينا وتجعلنا نتوق إلى بعض التّقدير القديم الجيّد، والشّعور بأنّ هناك من يستمع إلى ما تقوله ويتصرّف وفقاً له. لقد حلّ عصر الذّكاء الاصطناعيّ في التّواصل المؤسّسي بالفعل ولا مجال للتّراجع. وستتمكّن الشّركات الكبرى على وجه الخصوص من توظيف الذّكاء الاصطناعيّ القويّ للقيام بمهام إنشاء المحتوى اليوميّ المعتاد، والاستماع، وتقديم المعلومات نيابةً عنها. ولكن لا يزال الأمر مطروحاً للنّقاش حول ما سيبدو عليه العنصر البشريّ في ذلك. ربّما بعد كل هذه المحادثات مع الذّكاء الاصطناعيّ الشّبيه ببرنامج ChatGPT، سيطالب أصحاب المصلحة بالتّحدّث إلى شخصٍ "حقيقي"، شخصٍ لا يستطيع التّعبير عن التّقدير لفظيّاً فحسب، بل يعيشه.

ولكن مرّةً أخرى، ربما ستلبّي شخصيّات الذّكاء الاصطناعيّ الافتراضيّة الّتي تملأ العالم الافتراضيّ هذه الحاجة. أو سيكون لدينا مخلوقاتٌ شبيهةٌ بالرّوبوتات مثل داتا من فيلم ستار تريك، والّتي لن يكون العقل البشريّ بالنّسبة لها لغزاً معقّداً، بل مجرّد شيءٍ عاديٍّ آخر تصادفه في العمل في قسم الاتّصالات.

 

المؤلّف د. ينس سيفرت-بروكمان Dr. Jens Seiffert-Brockmann

الأستاذ الجّامعي د. ينس سيفرت-بروكمان، رئيس قسم الاتّصالات التّجاريّة، مدير برنامج الماجستير في الاتصالات التّجاريّة، محرّر مشارك في المجلّات الدّوليّة للاتّصالات الاستراتيجيّة، جامعة فيينّا للاقتصاد والأعمال.

 

https://www.ipra.org/news/itle/aitl-576-the-appreciation-test-artificial-communication-in-the-light-of-evolution/

 

ترجمة وتدقيق صَبَا إبراهيم سعيد

 

 

تحذير واجب.

 
لا يحق نشر أي جزء من منشورات ميديا & PR، أو اختزان مادته بطريقة الاسترجاع، أو نقله على أي نحو، سواء إلكترونياً أو ميكانيكياً أو خلاف ذلك دون الاشارة الى المصدر، تحت طائلة المساءلة القانونية
 

يرجى التواصل لطلب إذن الاستخدام:

info@ipra-ar.org

 


تابعنا :