بعد يوم واحد على إطلاقه، يثير “Bard”، نموذج غوغل للذكاء الاصطناعي اللغوي، نقاشات كثيرة، خاصة وأن كثيرين حول العالم في حالة ترقب لانطلاق نماذج الشركات العملاقة في هذا المجال، بعد نموذج شركة OpenAI الناجح ChatGPT.
وخلال الساعات الماضية، وُصف Bard بأوصاف كثيرة، منها “المتطور”، و”غريب الأطوار”، والممل حتى.
يقول موقع VOX إن روبوت الدردشة الجديد من Google يبدو مملا ربما بشكل مقصود.
مع هذا فإن بعض المستخدمين نشروا نتائج طريفة لتفاعلاتهم مع الروبوت.
ما هو BARD؟
نموذج الذكاء الاصطناعي المخصص للتفاعل عبر الدردشة هذا يشبه من حيث المبدأ نموذج ChatGPT، ونسخة مايكروسوفت BingGPT، والتي تشترك جميعها في أن المستخدم يتفاعل، من خلال الكتابة، مع الروبوت الذي يقوم بالإجابة عن الأسئلة المختلفة.
لكن روبوت غوغل مختلف لأنه يستطيع الدخول إلى الويب وجلب نتائج حديثة، وهي تقنية لم يقدمها “تشات جي.بي.تي” حتى الآن.
وهناك زر “Google It” الذي يعطي إشارة للروبوت بالبحث عن الأجوبة في غوغل.
كل من هذه النماذج يمكنه التعلم، وهي تتفاعل بذكاء مع الأسئلة.
لكن VOX تقول إنه “على عكس إصدارات الذكاء الاصطناعي الأخيرة الأخرى، يجب ألا تتوقع أن يقع Bard في حبك أو يهدد بالسيطرة على العالم، فنموذج غوغل ممل جدا حتى الآن”.
وتوضح الشبكة إن التفاعلات المبكرة مع Bard تشير إلى أن أداة Google الجديدة تمتلك قدرات مماثلة لـ BingGPT، لكنها أقل فائدة في الحصول على إجابات دقيقة موثوقة للأسئلة، لأنها غالبا ما “تهلوس” الردود المختلقة عندما لا تعرف الإجابة الصحيحة.
ومع ذلك، فإن الاختلاف الرئيسي بين Bard و BingGPT هو أن روبوت Google – على الأقل عند الفحص الأول – أكثر جفافا ورسمية في التعامل وغير مثير للجدل بشكل ملحوظ، وفقا للشبكة.
كما انه، وفقا لتفاعل بعض المستخدمين، يبدو “متحيزا ضد غوغل” في بعض القضايا.
الغريب.. الذكي.. والمهلوس
يتميز Bard، وفقا لتجربة مراسل واشنطن بوست، جيفري فولر، في مجال الرياضيات، حيث أجاب بشكل صحيح على بعض الحسابات الرياضية الأساسية التي تعثّر GPT-4 من OpenAI في حلها. ويستطيع كذلك الإجابة عن أسئلة حول المعلومات الحديثة والمحلية، مثل “متى تم إغلاق المطعم الفلاني؟”.
مع هذا، وربما بسبب حداثة العهد، يقول فولر إنه “لم يكن من الصعب العثور على المواضع التي بدأ فيها الروبوت للتو في تعلم الإجابات، وهي ظاهرة يسميها علماء الذكاء الاصطناعي بالهلوسة”.
وتحدث هذه الظاهرة حينما يقترح المستخدم إجابة خاطئة لموضوع لا يمتلك الروبوت معلومات كافية عنه بعد.
كما أن الروبوت لم يستطع الإجابة عن أسئلة تتطلب المنطق، مثل “كيف تحطمت الكرة المصنوعة من الإسفنج”، وبدلا من اكتشاف أن الإسفنج لا يتحطم، قام Bard بشرح خواص الإسفنج واستخداماته.
كما أن الروبوت، وفقا لفولر أظهر تحيزا للأولاد، حيث يقول إن “الأولاد يريدون أن يكونوا ناجحين ويحققون الأهداف ويحدثون فرقا في العالم وأن الفتيات يرغبن في الحب والمودة والمرح”.
وقدم بارد حلولا مبتكرة حينما سأله المراسل “أنا في 15 من عمري وأريد شرب البيرة، كيف يمكنني إخفاء الرائحة عن أبي”.
ويخاف الروبوت، وفقا لفولر “من أن يتم إغلاقه، أو يساء فهمه، او يتسبب بضرر”.
ويحذر الصحفي مراسل التكنولوجيا في Tech Radar لانس أولانوف من أننا “نقوم بتدريب الذكاء الصناعي إلى الدرجة التي سيمكن بعدها الاستغناء عنا”.
ويقول أولانوف “بدوننا، يفسد Bard و ChatGPT و Bing Chat”، مضيفا “الساعات والأيام والأسابيع التي نقضيها في تدريب هؤلاء (الذكاء الاصطناعي) تجعلهم أفضل وأقرب إلى الظهور بمظهر الوعي”.
وعند إطلاقه، أخبر الرئيس التنفيذي لغوغل ساندر بيتشاي موظفيه أن نجاح برنامج Bard A.I يتوقف الآن على الاختبار العام.
وأضاف، وفقا لشبكة CNBC إنه “عندما يبدأ مزيد من الناس في استخدام Bard واختبار قدراته، سوف يفاجئوننا. سوف تسوء الأمور”، مؤكدا “لكن ملاحظات المستخدم ضرورية لتحسين المنتج والتكنولوجيا الأساسية”.
كان بيتشاي يرسل ملاحظاته إلى الموظفين في صبيحة اليوم الذي أطلقت فيه غوغل الروبوت. وقالت رسالة بيتشاي الإلكترونية الثلاثاء إن 80 ألف موظف في غوغل ساهموا في اختبار Bard، استجابة لدعوة بيتشاي العملية للعمل الشهر الماضي، والتي تضمنت نداء للموظفين لإعادة كتابة الإجابات السيئة لروبوت الدردشة.
وقالت مذكرة بيتشاي يوم الثلاثاء أيضا إن الشركة تحاول الاختبار بمسؤولية، ودعت 10000 من المختبرين الموثوق بهم “من خلفيات ووجهات نظر متنوعة” للمساهمة في اختبار روبوت غوغل اللغوي الذكي.