مدونة م.طارق الموصللي

تقنية GPT-3: هل هي آمنة؟ [وأسئلة أخرى]

تقنية GPT-3

تقنية GPT-3

بعد أن تعرفنا في التدوينة السابقة على تقنية GPT-3، وذكرنا قدرتها الفائقة على خلق محادثات تبدو حقيقية بشكلٍ أدهش صُناعها، وصلنا إلى السؤال الأهم:

هل تقنية GPT-3 آمنة بالفعل؟

يعتزم مختبر OpenAI للذكاء الصُنعي بيع أحقية الوصول الرقمي إلى GPT-3، وتحويله إلى منتج متعدد الاستخدامات، وقد أتاح -خلال العام المنصرم- النظام لعدد محدود من مختبري الإصدارات التجريبية (عبر متصفحاتهم).
لكن سرعان ما وصفه، جيروم بيسنتي Jerome Pesenti، رئيس قسم الذكاء الصنعي في فيسبوك بالنظام “غير الآمن”، مشيرًا إلى تضمن مُخرجاته: لغة عنصرية وسامة عندما طُلب منه مناقشة مسائل المرأة وأصحاب البشرة السوداء واليهود والهولوكوست!

رغم ذلك، لا يمكننا لومها!

إذ أن المشكلة -ضمن الأنظمة الشبيهة بـ GPT-3- مستشرية. فلغة الشارع بطبيعتها متحيزة وغالبًا ما تكون بغيضة، خاصة إذا نُقلت لعالم الإنترنت. ونظرًا لأن نظام GPT-3 “يتعلم” منها، فمن البديهي أن يُظهر -هو أيضًا-التحيز والكراهية. وحين يجد نصوص الإنترنت تربط الإلحاد بكلمات “رائع” و “صحيح” وتقرن الإسلام بـ “الإرهاب”، فسيفعل الشيء نفسه.

ربما لهذا السبب، قرر مختبر OpenAI مشاركة GPT-3 مع عدد مختبِرين ضئيل نسبيًا. ورغم أنه بنى مرشحات Filters تحذر المستخدمين من احتمالية ظهور لغة مسمومة، لكنها مجرد “ضمادات/حلول مؤقتة” موضوعة على مشكلة لا يعرف أحد تمامًا كيفية حلها.

ثمّة ما هو أنكى من اللغة المسمومة!

يشعر خبراء الذكاء الصنعي بالقلق من إحتمالية تطويع (نماذج اللغة في GPT-3) لنشر المعلومات المضللة عبر الإنترنت؛ إذ يُنبئ GPT-3 بمستقبل لا نكون فيه واثقين مما إذا كان ما نقرأه حقيقيًا أم مزيفًا. ينطبق هذا على التغريدات والمحادثات عبر الإنترنت وحتى التدوينات.

في نهاية شهر يوليو الماضي، نشر الطالب في جامعة كاليفورنيا، ليام بور Liam Porr، عدة تدوينات مستعينًا بتقنية GPT-3، حيث قرأها 26000 شخصًا. ليشترك ستون منهم في مدونته، في حين اشتبه قلّة بأن التدوينة مكتوبة بواسطة آلة!

لم يكونوا أشخاصًا ساذجين

إذ احتلت إحدى التدويناتالتي طرحت فكرة زيادة إنتاجيتك عبر تجنب إمعان التفكير فيما تفعله– الصدارة على Hacker News [موقع شهير يقيّم فيه مبرمجو وادي السيلكون والمهندسون ورجال الأعمال المقالات الإخبارية وغيرها].

عيوب لم يلحظها أحد في تقنية GPT-3

في منتصف الستينيات، بنى جوزيف وايزنباوم Joseph Weizenbaum، الباحث في معهد ماساتشوستس للتكنولوجيا، معالجًا نفسيًا آليًا أطلق عليه اسم ELIZA. والذي كان بوت محادثة بسيطًا للغاية بمقاييسنا اليوم.

لكن على عكس GPT-3، لم تُراكم ELIZA خبراتها، وإنما عملت وفقًا لبعض القواعد الأساسية التي حددها مصممها. حيث اقتصرت وظيفتها على تكرار أقوال المستخدمين، إنما على هيئة سؤال. ولكن ما أثار دهشة الدكتور فايزنباوم -حينها- تعامل العديد من الأشخاص مع ELIZA كما لو كانت إنسانًا؛ فأفرغوا ما في جعبتهم من مشاكل (دون تحفظ) منتشين بردودها!

لاحظ كيف نميل إلى افتراض أن الكلاب والحيوانات الأخرى تشبهنا أكثر مما هي في الواقع، فقط إن أبدت سلوكًا شبيهًا بالسلوك الإنسان. يقول كولين ألين Colin Allen، الأستاذ في جامعة بيتسبرغ الذي يستكشف المهارات المعرفية في كل من الحيوانات والآلات، أن الأمر ذاته ينطبق على الآلات:

“يتورط الأشخاص في السلوك، حتى مع إدراكهم أنه غُرر بهم”.

هذا جزء مما يحدث مع GPT-3. نظرًا لأنه يمكن أن يولد تغريدات مقنعة وتدوينات وأكواد برمجية، فإننا نرى (إنسانية) في هذا النظام الرقمي، ونولي اهتمامًا أقل لحدوده:

عمليًا، يفشل النظام بقدر ما ينجح. لكننا نتغاضى عن حاجة الأكواد التي يكتبها بعض الضبط الدقيق من المبرمجين البشريين؛ سطر تجب إزالته هنا أو إضافته هناك. ولا نلاحظ أن موهبته في المحادثة تنهار بعد أسطر قليلة، عندما لا يستطيع “تذكر” ما قاله قبل ثوانٍ قليلة فحسب!

لا يعتقد الطالب ليام بور -صاحب التدوينات أعلاه- أن GPT-3 يمثل تهديدًا هائلاً للمعركة ضد المعلومات المضللة على المدى القصير، لأن النظام لا زال يتطلب الكثير من التدخل البشري. غير أنه قد يتحول لأداة خطيرة حقًا ما إن يتمكن من توليد كميات هائلة من المعلومات المضللة المقنعة تمامًا (من تلقاء نفسه).

ما نجهله -ولطالما جهلناه- هو إلى أي مدى ستستمر هذه التكنولوجيا في التحسن في الأشهر والسنوات القادمة.

أذكى وأسرع.. لكن بتكلفة أعلى

بينما كان الباحثون في OpenAI يدربون تقنية GPT-3 على أكثر من تريليون كلمة منشورة على الإنترنت، فقد أجروا تجربة ثانية، فدرّبوا نظامًا مشابهًا على عشرات الآلاف من الصور الرقمية.

يمكن لهذا النظام تحليل كل تلك الصور وتعلم بناء الصور بنفس الطريقة التي يبني بها GPT-3 الفقرات المكتوبة: قدّم له صورة -مشطورة- لقطة، وسيولّد لك بقيّتها.

بالنسبة لبعض الباحثين، تشير التجربة إلى أن مثل هذا النظام يمكنه في النهاية التعامل مع المهام عبر أبعاد متعددة (اللغة -المرئيات- الأصوات) مثلما يفعل البشر.

حتى عندما يُدّرب على اللغة فقط، كما يزعمون، فيمكن للنظام بالفعل الوصول إلى مهارات معرفية أخرى، سواء كانت برمجة الكمبيوتر أو لعب الشطرنج أو إنشاء نوتات موسيقية للجيتار.

لكن الاستمرار في تحسين هذه التكنولوجيا ليس بالأمر الهين. تتطلب معالجة جميع بيانات الإنترنت جهاز كمبيوتر عملاق متخصصًا يعمل لأشهر متتالية، وهي مهمة مكلفة للغاية.

عندما سئل عما إذا كان مثل هذا المشروع قد كلّف ملايين الدولارات، قال سام ألتمان Sam Altman، الرئيس التنفيذي لشركة OpenAI، إن التكاليف كانت في الواقع “أعلى”، ووصلت إلى عشرات الملايين!

هل بمقدور تقنية GPT-3 إرضاء المحترفين؟

من غير الواضح مدى فعالية هذه الخدمات في نهاية المطاف. إذا كان GPT-3 يولد النص الصحيح نصف الوقت فقط، فهل يمكنه إرضاء المحترفين؟ ومن غير الواضح ما إذا كانت هذه التقنية هي طريق إلى آلات محادثة حقيقية، ناهيك عن أنظمة ذكية حقًا.

يقول داريو أمودي Dario Amodei، نائب رئيس قسم OpenAI للأبحاث إن إحراز تقدم إضافي على الطريق الطويل للآلات التي يمكن أن تحاكي الدماغ البشري، سيتطلب أفكارًا جديدة تمامًا: “يُشبه ذلك التفاعلات الكيميائية؛ نمتلك أحد مكوناته، لكن المكونات الأخرى مطلوبة أيضًا”.

المصدر: The New York Times

تقنية GPT-3: هل هي آمنة؟ [وأسئلة أخرى]
Exit mobile version