
في مساء يوم الخميس المتأخر، بثت أوبرا وينفري حلقة خاصة عن الذكاء الاصطناعي، بعنوان مناسب 'الذكاء الاصطناعي ومستقبلنا'. ضمت الحلقة العديد من الضيوف مثل الرئيس التنفيذي لشركة OpenAI سام ألتمان، والمؤثر التقني ماركيز براونلي، ومدير مكتب التحقيقات الفدرالي كريستوفر راي.
\n\nكان اللهجة السائدة هي التشكك والحذر.
\n\nذكرت أوبرا في تصريحات معدة أن جني الذكاء الاصطناعي خارج القنينة، سواء للأفضل أو للأسوأ، وأن البشرية ستضطر إلى التعايش مع العواقب.
\n\n'الذكاء الاصطناعي ما زال خارج سيطرتنا وإلى حد كبير...فهو خارج تفهمنا'، قالت. 'ولكنه هنا، وسنعيش مع التكنولوجيا التي يمكن أن تكون حليفتنا وكذلك منافستنا... نحن أكثر مخلوقات هذا الكوكب التكيف، سنتكيف مرة أخرى. لكن احتفظوا بأعينكم على الواقع. الرهانات لا يمكن أن تكون أعلى من ذلك'.
\n\nسام ألتمان يبالغ في تعريفه
\n\nصنع ألتمان، الذي كان أول مقابلة مع أوبرا في هذه الليلة، الحالة المشكوك فيها التي يتعلم فيها الذكاء الاصطناعي المفاهيم ضمن البيانات التي تم تدريبه عليها.
\n\n'نظهر للنظام ألف كلمة بتسلسل ونطلب منه تنبؤ الكلمة التالية'، قال لأوبرا. 'يتعلم النظام التنبؤ، وبهذا يتعلم الأفكار الأساسية'.
\n\nسيتفاوض كثيرون مع هذا.
\n\nنظم الذكاء الاصطناعي مثل ChatGPT و o1، التي قدمتها OpenAI يوم الخميس، هي في الواقع تنبأ بأكثر الكلمات المقبولة في الجملة. ولكنها مجرد آلات إحصائية - تتعلم أنماط البيانات. ليس لديهم نية؛ إنها تقدم تخمينات معتمدة فقط.
\n\nبينما قد فرط ألتمان ربما في قدرات أنظمة الذكاء الاصطناعي في الوقت الحاضر، فإنه أكد على أهمية معرفة كيفية اختبار أمان تلك الأنظمة نفسها.
\n\nقال: 'إن أحد أول الأمور التي نحتاج إلى فعلها - وهذا يحدث الآن - هو الحصول على الحكومة للبدء في معرفة كيفية القيام باختبارات السلامة لهذه الأنظمة. مثلما نفعل للطائرات أو الأدوية الجديدة'.
\n\nربما يكون دعم ألتمان للتنظيم مصلحيًا للنفس. عارضت OpenAI مشروع القانون الخاص بسلامة الذكاء الاصطناعي في ولاية كاليفورنيا المعروف بالرقم 1047، قائلة إنه سيعرقل 'الابتكار'. ومع ذلك، قد ظهرت انباء عن دعم موظفي OpenAI السابقين وخبراء الذكاء الاصطناعي مثل جيفري هنتون للمشروع، ويجادلون بأنه سيفرض تدابير الحماية اللازمة على تطوير الذكاء الاصطناعي.
\n\nطرحت أوبرا أيضًا سؤالًا لألتمان حول دوره كرئيس تنفيذي لشركة OpenAI. سألت لماذا يجب على الناس أن يثقوا به وتجاهل سؤالها بشكل كبير، قائلاً إن شركته تحاول بناء الثقة مع مرور الوقت.
\n\nسبق أن قال ألتمان بشكل مباشر للناس أنهم لا يجب أن يثقوا به أو بأي شخص آخر للتأكد من أن الذكاء الاصطناعي يعود بالفائدة على العالم.
\n\nوفي وقت لاحق، قال الرئيس التنفيذي لOpenAI إنه كان من الغريب سماع أوبرا تسأله إذا كان 'أكثر رجل قوة وخطورة في العالم'، كما أشارت عناوين الأخبار. اختلف مع هذا الادعاء، لكنه قال إنه يشعر بالمسؤولية لدفع الذكاء الاصطناعي في اتجاه إيجابي لصالح البشرية.
\n\nأوبرا عن الفيديوهات المزيفة
\n\nكما كان متوقعًا في حلقة عن الذكاء الاصطناعي، ظهر موضوع الفيديوهات المزيفة.
\n\nلإظهار مدى إقناع وسائط الإعلام الاصطناعية، قارن براونلي عينات من تسجيلات Sora، مولد الفيديو المدعوم بالذكاء الاصطناعي من OpenAI، بتسجيلات مولدة بالذكاء الاصطناعي منذ عدة أشهر. كانت العينة من Sora متقدمة بأميال - توضح تقدم هذا المجال بسرعة.
\n\n'الآن، يمكنك بعدًا أن تلقي نظرة على هذا وتعرف أن هناك شيئًا ليس مرتبطًا تمامًا'، قال براونلي عن تسجيلات Sora. قالت أوبرا إنها تبدو حقيقية بالنسبة لها.
\n\nخدمت عروض الفيديو المضللة كإعداد لمقابلة مع راي، الذي تذكر اللحظة التي عرف فيها التقنية العميقة للذكاء الاصطناعي لأول مرة.
\n\n'كنت في غرفة اجتماعات، واجتمعت مجموعة من [موظفي FBI] لتوضيح لي كيف يمكن إنشاء فيديوهات مضافة بالذكاء الاصطناعي'، قال راي. 'وكانوا قد أنشؤوا فيديو ليقول فيه أشياء لم أكن قد قلتها من قبل ولن أقولها أبدًا'.
\n\nتحدث راي عن زيادة انتشار الابتزاز الجنسي بمساعدة الذكاء الاصطناعي. وفقًا لشركة الأمان السيبراني ESET، كان هناك زيادة بنسبة 178% في حالات الابتزاز الجنسي بين عامي 2022 و 2023، نتيجة جزئية لتكنولوجيا الذكاء الاصطناعي.
\n\n'شخص متنكر كزميل يستهدف مراهقًا'، قال راي، 'ثم يستخدم صورًا ملفقة لإقناع الطفل بإرسال صور حقيقية بدلًا من ذلك. في الواقع، هناك رجل ما وراء لوحة المفاتيح في نيجيريا، وعندما يحصلون على الصور، يهددون بابتزاز الطفل ويقولون، إذا لم تدفع، سنشارك هذه الصور التي ستدمر حياتك'.
\n\nتحدث راي أيضًا عن الإشاعات المحيطة بالانتخابات الرئاسية الأمريكية القادمة. وفي حين أكد أنه 'لم يحن وقت الذعر'، أكد أنه من واجب 'كل شخص في أمريكا' أن 'يجلب نوعًا مكثفًا من التركيز والحذر' لاستخدام الذكاء الاصطناعي ويتذكر أن 'يمكن استخدام الذكاء الاصطناعي من قبل الأشرار ضدنا جميعًا'.
\n\n'نجد، في كثير من الأحيان، أن شيئًا على وسائل التواصل الاجتماعي يبدو وكأنه بيل من توبيكا أو ماري من ديتون، ولكن في الواقع، هو أي شخص بفكرة، قد يكون ضابط استخبارات روسي أو صيني على أطراف بكين أو موسكو'، قال راي.
\n\nبالفعل، تبين استطلاع للرأي من Statista أن أكثر من ثلثي المشاركين الأمريكيين رأوا معلومات مضللة - أو ما يشتبهون فيه أنها معلومات مضللة - حول مواضيع رئيسية نحو نهاية عام 2023. في هذا العام، حصلت صور الذكاء الاصطناعي المضللة للمرشحين نائب الرئيس كامالا هاريس والرئيس السابق دونالد ترامب على ملايين المشاهدات على شبكات التواصل الاجتماعي بما في ذلك 'إكس'.
\n\nبيل غيتس عن تعطيل الذكاء الاصطناعي
\n\nلتغيير الجو للتفاؤل التكنولوجي، أجرت أوبرا مقابلة مع مؤسس Microsoft بيل غيتس، الذي عبر عن أمله في أن يمنح الذكاء الاصطناعي حقلي التعليم والطب تعزيزًا كبيرًا.
\n\n'الذكاء الاصطناعي مثل شخص ثالث يجلس في [موعد طبي]، يقوم بتسجيل محادثة، يقترح وصفة طبية'، قال غيتس. 'وبالتالي، بدلاً من أن يواجه الطبيب شاشة كمبيوتر، يتفاعلون معك، والبرنامج يحرص على أن يكون هناك تسجيل جيد جدًا'.
\n\nتجاهل غيتس الإمكانية المحتملة للتحيز نتيجة لتدريب الذكاء الاصطناعي الرديء، ومع ذلك.
\n\nأظهرت دراسة حديثة أن أنظمة التعرف على الكلام من شركات التكنولوجيا الرائدة كانت مرتين احتمالات الخطأ في نقل الصوت من المتحدثين السود مقارنة بالمتحدثين البيض. أظهرت أبحاث أخرى أن أنظمة الذكاء الاصطناعي تعزز المعتقدات الخاطئة التي تمتلكها منذ فترة ط