يمكن أن تبدو روبوتات الذكاء الاصطناعي واعية. يحتاج الطلاب إلى حواجز
نصح مؤسس Facebook ، مارك زوكربيرج ، مؤسسي التكنولوجيا ذات مرة بـ “التحرك بسرعة وكسر الأشياء”. لكن في التحرك السريع ، يجادل البعض بأنه “كسر” هؤلاء الشباب الذين أدى تعرضهم لوسائل التواصل الاجتماعي إلى الاكتئاب والقلق والتسلط عبر الإنترنت وضعف صورة الجسد وفقدان الخصوصية أو النوم خلال مرحلة من مراحل الحياة الضعيفة.
الآن ، تتقدم Big Tech بسرعة مرة أخرى مع إصدار روبوتات الدردشة المتطورة بالذكاء الاصطناعي ، والتي لم يتم فحصها جميعًا بشكل كافٍ قبل إطلاقها للجمهور.
أطلقت شركة OpenAI سباق تسلح للذكاء الاصطناعي في أواخر عام 2022 بإصدار ChatGPT – وهو روبوت دردشة ذكي يعمل بالذكاء الاصطناعي يتفاعل مع المستخدمين بطريقة محادثة ، ولكنه يكذب أيضًا ويعيد إنتاج التحيزات المجتمعية المنهجية. أصبح الروبوت إحساسًا عالميًا فوريًا ، حتى عندما أثار مخاوف بشأن الغش وكيف يمكن أن تتغير الكتابة الجامعية.
رداً على ذلك ، رفعت Google إصدار روبوت الدردشة المنافس ، Bard ، إلى 6 فبراير ، على الرغم من تسريبات الموظفين بأن الأداة لم تكن جاهزة. غرقت أسهم الشركة بعد سلسلة من الزلات في المنتجات. بعد ذلك ، وبعد يوم واحد ، وفي محاولة واضحة لعدم استبعادها من مجموعة روبوت الدردشة بالذكاء الاصطناعي ، أطلقت Microsoft محرك بحث Bing الذي يعمل بالذكاء الاصطناعي. سرعان ما اكتشف المستخدمون الأوائل أن الروبوت المخيف الذي يبدو كأنه إنسان أنتج ردودًا غير مهذبة ومتلاعبة ووقحة وتهديدية وكاذبة ، مما دفع الشركة إلى تنفيذ التغييرات – وعلماء أخلاقيات الذكاء الاصطناعي للتعبير عن تحفظاتهم.
يمكن أن تؤدي القرارات المتسرعة ، لا سيما في مجال التكنولوجيا ، إلى ما يسمى بـ “الاعتماد على المسار” ، وهي ظاهرة تقيد فيها القرارات المبكرة الأحداث أو القرارات اللاحقة ، وفقًا لمارك هاجروت ، مؤرخ التكنولوجيا ومستشار نظام جامعة نورث داكوتا الذي عمل سابقًا في منصب نائب مدير مركز الأكاديمية البحرية الأمريكية لدراسات الأمن السيبراني. ربما تم تصميم لوحة مفاتيح QWERTY ، حسب بعض الحسابات (لا يتفق الجميع) ، في أواخر القرن التاسع عشر لتقليل التشويش على مفاتيح حروف الآلة الكاتبة عالية الاستخدام. لكن التصميم مستمر حتى على لوحات مفاتيح الهواتف المحمولة اليوم ، على الرغم من الترتيب دون الأمثل للأحرف.
قال هاجروت عن وجود أدوات الذكاء الاصطناعي في التعليم العالي: “لا يعني التعمد أننا سنوقف هذه الأشياء ، لأنها تقريبًا قوة من قوى الطبيعة”. “ولكن إذا شاركنا في وقت مبكر ، فيمكننا محاولة الحصول على تأثيرات إيجابية أكثر من التأثيرات السلبية.”
لهذا السبب أطلق قادة نظام جامعة نورث داكوتا فريق عمل لتطوير استراتيجيات لتقليل الآثار السلبية للذكاء الاصطناعي على مجتمعات الحرم الجامعي. نظرًا لتغلغل هذه الأدوات في التعليم العالي ، فقد طور العديد من الكليات والأساتذة الآخرين سياسات مصممة لضمان النزاهة الأكاديمية وتعزيز الاستخدامات الإبداعية للتكنولوجيا الناشئة في الفصل الدراسي. لكن بعض الأكاديميين قلقون من أنه من خلال التركيز على الصدق الأكاديمي والابتكار في الفصول الدراسية ، فإن السياسات لها نقطة عمياء واحدة. أي أن الكليات كانت بطيئة في إدراك أن الطلاب قد يحتاجون إلى تدريب محو الأمية بالذكاء الاصطناعي يساعدهم على التنقل في الاستجابات العاطفية لردود الروبوتات المزعجة أحيانًا.
قال هاجروت: “لا أستطيع رؤية المستقبل ، لكنني درست ما يكفي من هذه التقنيات وعشت معهم لأعرف أنه يمكنك حقًا فهم بعض الأشياء بشكل خاطئ”. “يمكن للقرارات المبكرة أن تثبت ، ويمكن أن تؤثر على تعلم الطلاب واعتمادهم على الأدوات التي ، في النهاية ، قد تكون أقل من مثالية لتنمية التفكير النقدي والتمييز.”
تتشكل سياسات الذكاء الاصطناعي وتتطلب تحديثات
عندما بدأت إميلي بيتس دوناهو ، المديرة المساعدة للدعم التعليمي في مركز التدريس والتعلم بجامعة ميسيسيبي ، التدريس في هذا الفصل الدراسي ، أدركت أنها بحاجة إلى معالجة أسئلة طلابها والإثارة المحيطة بـ ChatGPT. في رأيها ، غطت سياسة النزاهة الأكاديمية بالجامعة الحالات التي قام فيها الطلاب ، على سبيل المثال ، بنسخ أو تحريف عمل على أنه عمل خاص بهم. وقد حررها ذلك من صياغة سياسة بدأت من مكان الانفتاح والفضول.
اختارت Donahoe المشاركة في إنشاء سياسة دورة تدريبية حول أدوات الكتابة التوليدية للذكاء الاصطناعي مع طلابها. شاركت هي والطلاب في تمرين قدموا فيه جميعًا إرشادات مقترحة لسياسة الفصل ، وبعد ذلك قاموا بالتصويت على اقتراحات بعضهم البعض. ثم قام دوناهو بتقطير الأصوات الأعلى في وثيقة بعنوان “إرشادات النزاهة الأكاديمية لاستخدام وإسناد الذكاء الاصطناعي.”
تتضمن بعض الاستخدامات المسموح بها في سياسة Donahoe استخدام مولدات الكتابة بالذكاء الاصطناعي لتبادل الأفكار ، والتغلب على عقبة الكاتب ، وإلهام الأفكار ، وصياغة مخطط تفصيلي ، وتحريره وتصحيحه. تضمنت الاستخدامات غير المسموح بها أخذ ما كتبه مُنشئ الكتابة في ظاهره ، بما في ذلك أجزاء ضخمة من نثره في مهمة وفشل في الكشف عن استخدام أداة الكتابة بالذكاء الاصطناعي أو مدى استخدامها.
كانت دوناهو حريصة على التأكيد على أن القواعد التي وضعوها تنطبق على فصلها ، لكن توقعات الأساتذة الآخرين قد تختلف. وكشفت أيضًا أن مثل هذه السياسة كانت جديدة بالنسبة لها مثلها مثل الطلاب ، نظرًا للارتفاع السريع في ChatGPT والأدوات المنافسة.
قال دوناهو: “قد يتبين في نهاية الفصل الدراسي أنني أعتقد أن كل ما قلته للتو هو هراء”. “ما زلت أحاول التحلي بالمرونة عند ظهور إصدارات جديدة من هذه التكنولوجيا أو عندما نتكيف معها بأنفسنا.”
مثل دوناهو ، صمم العديد من الأساتذة سياسات فردية جديدة بمواضيع متشابهة. في الوقت نفسه ، طورت العديد من مراكز التعليم والتعلم في الكليات صفحات موارد جديدة تحتوي على إرشادات وروابط لمقالات مثل داخل التعليم العالي“نصائح ChatGPT يمكن للأكاديميين استخدامها الآن.”
استجاب مجتمع البحث الأكاديمي بسياسات جديدة خاصة به. على سبيل المثال ، ArXiv ، وهو مستودع الوصول المفتوح لمطبوعات ما قبل وما بعد الطباعة والمجلات طبيعة و علوم لقد طورت جميعها سياسات جديدة تشترك في توجيهين رئيسيين. أولاً ، لا يمكن إدراج أدوات لغة الذكاء الاصطناعي كمؤلفين ، حيث لا يمكن محاسبتهم على محتويات الورقة. ثانيًا ، يجب على الباحثين توثيق استخدام أداة لغة الذكاء الاصطناعي.
ومع ذلك ، لا تزال جهود الأكاديميين للتنقل في المشهد الجديد المليء بالذكاء الاصطناعي قيد التنفيذ. على سبيل المثال ، أصدرت ArXiv سياستها لأول مرة في 31 يناير ولكنها أصدرت تحديثًا في 7 فبراير. كما اكتشف الكثيرون أن توثيق الاستخدام شرط ضروري ولكنه غير كاف للاستخدام المقبول. على سبيل المثال ، عندما كتب موظفو جامعة فاندربيلت رسالة بريد إلكتروني إلى الطلاب حول إطلاق النار الأخير في جامعة ولاية ميتشيغان والذي قُتل فيه ثلاثة أشخاص وأصيب خمسة ، وبعد ذلك قتل المسلح نفسه ، قاموا بتضمين ملاحظة في الجزء السفلي تقول ، “إعادة صياغة من ChatGPT من OpenAI “. وجد الكثيرون أن مثل هذا الاستخدام ، على الرغم من الاعتراف به ، غير حساس للغاية ومعيب.
أولئك الذين يعملون على صياغة مثل هذه السياسات يتصارعون مع بعض القيم الأكاديمية العزيزة ، بما في ذلك النزاهة الأكاديمية والتعلم والحياة نفسها. نظرًا للسرعة والمخاطر ، يجب على هؤلاء الأفراد التفكير بسرعة أثناء المضي قدمًا بحذر. يجب أن تكون صريحة بينما تظل مفتوحة للتغيير. يجب عليهم أيضًا إظهار السلطة مع إظهار التواضع في خضم عدم اليقين.
لكن النزاهة الأكاديمية والدقة ليستا المسألتين الوحيدتين المرتبطتين بروبوتات الدردشة بالذكاء الاصطناعي. علاوة على ذلك ، يمتلك الطلاب بالفعل نموذجًا لفهم هذه القضايا ، وفقًا لإيثان مولليك ، الأستاذ المشارك في الإدارة والمدير الأكاديمي في وارتون إنتراكتيف في مدرسة وارتون بجامعة بنسلفانيا.
قد تتجاوز السياسات الصدق الأكاديمي واستخدامات الفصول الدراسية الإبداعية ، وفقًا للعديد من الأكاديميين الذين تمت استشارتهم في هذه القصة. أي أن التكنولوجيا الأساسية للروبوتات – نماذج اللغة الكبيرة – تهدف إلى محاكاة السلوك البشري. على الرغم من أن الآلات ليست واعية ، إلا أن البشر غالبًا ما يستجيبون لها بعاطفة. نظرًا لأن Big Tech تسرع من استخدامها للجمهور كأرض اختبار لروبوتات الدردشة المشبوهة التي تبدو كإنسان ، فقد يكون الطلاب غير مستعدين لإدارة استجاباتهم العاطفية. بهذا المعنى ، قد تساعد سياسات روبوتات الدردشة التي تعمل بالذكاء الاصطناعي التي تعالج محو الأمية في حماية الصحة العقلية للطلاب.
قال أندرو أرماكوست ، رئيس جامعة نورث داكوتا ، “هناك ضغوطات كافية في العالم تؤثر حقًا على طلابنا”. روبوتات الدردشة بالذكاء الاصطناعي “تضيف بُعدًا آخر محتملاً”.
عنصر غالبًا ما يكون مفقودًا في سياسة روبوت دردشة AI
كتب موليليك في تغريدة على تويتر خيط حول تعامله مع الروبوت قبل أن تفرض Microsoft قيودًا.
“أقول ذلك باعتباري شخصًا يعرف أنه لا توجد شخصية أو كيان حقيقي وراء أ [large language model]كتب مولليك. “ولكن ، حتى مع العلم أنه كان يكمل بشكل تلقائي مربع حوار بناءً على مطالباتي ، شعرت أنك تتعامل مع شخص حقيقي. لم أحاول مطلقًا “كسر حماية” روبوت الدردشة أو جعله يتصرف بأي طريقة معينة ، ولكن ما زلت أحصل على إجابات تبدو شخصية للغاية ، وتفاعلات جعلت الروبوت يشعر بأنه مقصود “.
الدرس ، وفقًا لمولليك ، هو أنه يمكن بسهولة خداع المستخدمين للاعتقاد بأن روبوت الدردشة بالذكاء الاصطناعي واعي.
هذا الأمر يتعلق بـ Hagerott ، الذي قام ، عندما كان يدرس في الكلية ، بمعايرة مناقشاته مع الطلاب بناءً على المدة التي قضوها في الكلية.
قال هاجروت: “في تلك السنوات التكوينية الأولى ، كنت دائمًا حريصًا للغاية”. “يمكنني التحدث بطرق معينة مع كبار السن وطلاب الدراسات العليا ، ولكن يا فتى ، مع الطلاب الجدد ، تريد تشجيعهم ، وجعلهم يعرفون أن الناس يتعلمون بطرق مختلفة ، وأنهم سيتغلبون على هذا.”
يشعر هاجروت بالقلق من أن بعض الطلاب يفتقرون إلى تدريب محو الأمية بالذكاء الاصطناعي الذي يدعم فهم علاقاتهم العاطفية بنماذج اللغة الكبيرة ، بما في ذلك مخاطر الصحة العقلية المحتملة. قال هاجروت إن الطالب المؤقت الذي يسأل روبوت محادثة يعمل بالذكاء الاصطناعي سؤالاً حول قيمته الذاتية ، على سبيل المثال ، قد يكون غير مستعد لإدارة استجابته العاطفية للاستجابة السلبية الباردة.
يشارك هوليس روبينز ، عميد كلية العلوم الإنسانية بجامعة يوتا ، مخاوف مماثلة. لطالما استخدمت الكليات روبوتات الدردشة المؤسسية على مواقعها الإلكترونية لدعم الوصول إلى موارد المكتبة أو لتعزيز نجاح الطلاب والاحتفاظ بهم. لكن روبنز قال إن روبوتات الدردشة الخاصة بالكلية هذه غالبًا ما تكون قد صممت بعناية إجابات لأنواع الأسئلة الحساسة التي يميل طلاب الجامعات إلى طرحها ، بما في ذلك أسئلة حول صحتهم الجسدية أو العقلية.
قالت روبينز: “لست متأكدًا من أنه من الواضح دائمًا للطلاب ما هو ChatGPT والدردشة المرخصة والمُروجة من الجامعة” ، مضيفة أنها تتطلع إلى يوم قد يكون فيه للكليات منصات شبيهة بـ ChatGPT مصممة من أجل طلابهم وباحثوهم.
للتوضيح ، لم يجادل أي من الأكاديميين الذين تمت مقابلتهم في هذا المقال بأن الكليات يجب أن تحظر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. لقد تغلغلت الأدوات في المجتمع بقدر ما تغلغلت في مستوى التعليم العالي. لكن جميعهم أعربوا عن قلقهم من أن سياسات بعض الكليات قد لا تواكب إصدار Big Tech للذكاء الاصطناعي للأدوات التي تم التعهد بها.
وبالتالي ، قد تركز السياسات الجديدة على حماية الصحة العقلية للطلاب ، بالإضافة إلى مشاكل الدقة والتحيز.
قال مارك واتكينز ، المحاضر في التركيب والخطاب في جامعة ميسيسيبي: “من الضروري تعليم الطلاب أن روبوتات الدردشة ليس لديها أي إحساس أو تفكير ، وأن هذه التفاعلات التركيبية ، على الرغم مما تبدو عليه ، ما زالت ليست أكثر من توليد نص تنبؤي”. من المناظر الطبيعية المتغيرة. “تضيف هذه المسؤولية بالتأكيد بعدًا آخر إلى المهمة الصعبة بالفعل المتمثلة في محاولة تعليم محو الأمية بالذكاء الاصطناعي.”