مايكروسوفت الثوره التس ستحدثها أدوات الذكاء الاصطناعي التوليدي في العالم
أيمن بحر
منذ أسابيع قليلة تحدث المؤسس المشارك في شركة مايكروسوفت بيل جيتس عن الثورة التى ستحدثها أدوات الذكاء الاصطناعى التوليدى فى العالم مشيداً بالدور الذى ستقوم به فى مساعدة البشرية على تحقيق تقدم فى جميع المجالات.
واختتم جيتس حديثه الطويل عن هذه التكنولوجا الجديدة قائلاً: بينما نخترع الروبوتات التى يشغلها الذكاء الاصطناعى التوليدى نحتاج فقط للتأكد من عدم إصابتها بمرض الزهايمر.وفى حين ظن الجميع أن استخدام جيتس لتعبير الزهايمر مجرد مزحة تبين بعد ذلك أن مؤسس مايكروسوفت لم يكن يمزح وأن البرامج والروبوتات العاملة بالذكاء الاصطناعى التوليدى يمكن أن تصاب بالزهايمر والخرف والهلوسة وهذا الأمر ليس نتاج تحليل بل حدث بالفعل مع تطبيق ChatGPT التابع لشركة OpenAI التى سارعت الأسبوع الماضى الى تدارك الأمر عبر الإعلان أنها ستتصدى لهلوسة الذكاء الاصطناعى وذلك باتباع أسلوب أحدث في تدريب نماذج اللغة.ويحدث خرف أو هلوسة الذكاء الاصطناعى عندما تختلق روبوتات مثل ChatGPT أو Bard أو غيرها من البرامج المماثلة أحداثاً تحقيق وتصر على أنها حقائق لا شك فيها إذ تعد هذه الهلوسات معضلة خطيرة خاصة إذا تم اعتمادها من قبل الانسان.
ويقول كريستوف زغبى وهو المؤسس والرئيس التنفيذى لشركة ذكاء التكنولوجية .Zaka. فى حديث إن القصة بدأت عندما استخدم محام فى الولايات المتحدة برنامج ChatGPT. لمساعدته على إدانة شركة طيران وإلزامها التعويض لراكب تعرض لإصابة بسبب عربة الطعام الموجودة على متن الطائرة حيث طلب المحامى من ChatGPT العثور على سوابق قضائية تم فيها إدانة شركات الطيران بحوادث مماثلة وبالفعل قدم له البرنامج 6 قضايا سابقة ذات صلة ليتبين لاحقاً لقاضي المحكمة أن السوابق القضائية المُشار اليها غير موجودة فى الواقع.
ويضيف الزغبى أن ما حصل دفع المحامى الأميركى للاعتراف بأنه استخدم ChatGPT، لتكملة بحثه القانونى مشيراً الى أن البرنامج أكد له أن المعلومات صحيحة ومناسبة لدعواه رافضاً إعطاءه المصدر والمرجع القانونى لها حيث يدل ما حدث على أن ChatGPT وجميع البرامج المماثلة يمكن أن تصاب بـ الزهايمر.وبحسب زغبى فإن ChatGPT مبنى على نموذج لغة مدرب على قراءة الكثير من النصوص ليقوم بتركيب نص متكامل حيث أن هذا التطبيق ليس هدفه البحث عن معلومات صحيحة ودقيقة بل أن يكتب نصاً مقنعاً كما تم تدريبه وهو لا يكترث ما إذا كانت تلك المعلومات صحيحة فالمهم بالنسبة له أن يكون موقعها فى الجملة مناسب وبالتالى يمكن له أن يخترع أسماء وأحداثاً طالما هى تتناسب مع نصه، ويصر على أنها حقيقية.
ويعتبر زغبى أن ما يحدث خطير لأن الناس باتوا يستعينون ببرنامج الذكاء الاصطناعى التوليدى ويستخدمونه دون التحقق من دقة المعلومات التى زودهم بها، فيحصلون على نص يحوى الكثير من المعلومات غير الصحيحة ولذلك فإن النصيحة التى يمكن تقديمها هنا هى بعدم استخدام هذه البرامج عند البحث عن معلومات معينة بل اللجوء الى محرك البحث الشهير غوغل الذى يقدم الإجابة مرفقة بالرابط الذي يمكن للمستخدم التأكد من صحته
ويكشف زغبى إن مشكلة إصابة ChatGPT أو غيره من البرامج المماثلة بالخرف أو الهلوسة قد لا يتم حلها بنسبة 100 بالمئة فحتى لو تم دعم هذه التكنولوجيا بميزة التحقق من القصة أو الواقعة فإننا قد نصل الى مرحلة تقل فيها الهلوسة وهذا الأمر لن يحصل فى المستقبل
من جهتها تقول أخصائية التسويق الرقمى كارين عباس فى حديث إن سبب إطلاق وصف الزهايمر. أو .خرف. أو هلوسة وعدم القول بأنه يكذب على ما يفعله ChatGPT أو غيره من برامج الذكاء الاصطناعى يعود الى أن البرنامج لا يدرك أنه يكذب بل هو وفى لحظة عدم يقين يقوم بتحليل البيانات الموجودة لديه بطريقة يراها أنها صحيحة تماماً كما حال الانسان عندما يصاب بالخرف أو الزهايمر أو الهلوسة حيث يعتقد أن ما يقوله صحيح 100 بالمئة ومن هنا فإنه لا يجب النظر إلى روبوتات الذكاء الاصطناعى على أنها شخص عاقل يمتلك إجابات على جميع الأسئلة التى قد نحتاجها.
كما أكدت عباس أنه مع تقدم الوقت وتطور التكنولوجيا فإن نسبة الخرف فى برامج الذكاء الاصطناعى ستقل حدتها ولكن من الصعب إنهائها تماماً ولذلك فإنه من المهم جداً على المستخدم أن يتأكد من صحة ودقة المعلومات التى يحصل عليها من خلال هذه البرامج.