الرئيسية » التكنولوجيا » رائد الذكاء الاصطناعي يستقيل من غوغل ويحذر من مخاطر التكنلوجيا الحديثة

رائد الذكاء الاصطناعي يستقيل من غوغل ويحذر من مخاطر التكنلوجيا الحديثة

جيفري هينتون3

صحيفة اللحظة:
بعد 10 سنوات في خدمة غوغل استقال رائد الذكاء الاصطناعي جيفري هينتون الاثنين الماضي من العملاق الأميركي، موضحا في مقابلة مع صحيفة نيويورك تايمز الأميركية أنه غادر للتحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن 5 مخاطر أساسية للذكاء الاصطناعي.
انت الان تتابع خبر جيفري هينتون يستقيل من غوغل ويحذر من مخاطر التكنلوجيا الحديثة والان مع التفاصيل
بغداد – ياسين صفوان – وأعلن هينتون (75 عاماً) استقالته من “غوغل” في بيان أرسله لصحيفة نيويورك تايمز، قائلاً إنه نادم الآن على عمله.
وقال لبي بي سي إن بعض مخاطر روبوتات الدردشة الذكية “مخيف للغاية”.
وأضاف: “في الوقت الحالي، هم ليسوا أكثر ذكاء منا بقدر ما أستطيع أن أقول، لكنني أعتقد أنهم سيصبحون قريبا”.
ومهدت أبحاث هينتون الرائدة حول التعلم العميق والشبكات العصبية، الطريق أمام أنظمة الذكاء الاصطناعي مثل “شات جي بي تي”.
لكن هينتون البريطاني-الكندي المتخصص في علم النفس المعرفي وعلوم الكمبيوتر، قال لبي بي سي إن برنامج الدردشة الآلي يمكن أن يتجاوز قريباً مستوى المعلومات التي يحتفظ بها الدماغ البشري.
وتابع قائلاً: “في الوقت الحالي، ما نراه هو أن أشياء مثل (جي بي تي – 4) تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وإلى حد بعيد. بالنسبة للتفكير، إنه ليس جيداً، ولكنه يعمل فعلاً على التفكير البسيط”.
وأشار إلى أنه “بالنظر إلى معدل التطوّر، نتوقع أن تتحسن الأمور سريعاً. لذلك يجب أن نقلق بشأن ذلك”.
ولفت في المقال الذي أرسله إلى “نيويورك تايمز” إلى أن “جهات سيئة”، قد تحاول استخدام الذكاء الاصطناعي لفعل “أمور سيئة”.
وقال رداً على طلب بي بي سي بالإيضاح أكثر حول هذه المسألة قائلاً: “هذا فقط نوع من السيناريو الأسوأ، نوع من السيناريو الكابوس”.
وأضاف: “هل تستطيع أن تتخيل مثلاً أن أحداً سيئاً مثل الرئيس الروسي (فلاديمير بوتين) قرر أن يمنح الروبوتات القدرة على خلق أهدافه الفرعية”.
وحذّر من أن هذا في النهاية قد “يخلق أهدافا فرعية ـ على سبيل المثال “أنا بحاجة للحصول على مزيد من القوة”.
وقال: “لقد وصلت إلى استنتاج بأن نوع الذكاء الذي نطوره يختلف كثيراً عن الذكاء الذي لدينا”.
“نحن أنظمة بيولوجية وهذه أنظمة رقمية، والفرق الكبير، أنه مع الأنظمة الرقمية لديك العديد من النسخ من ذات مجموعة الأوزان، ومن نموذج العالم ذاته”.
وأوضح أن “جميع هذه النسخ تستطيع التعلم بشكل منفصل، لكنها تشارك معرفتها فوراً. فإن كان لديك 10 آلاف شخص، عندما يتعلم شخص واحد شيئا ما، سيعرفه الجميع تلقائياً. وهكذا يمكن أن تعرف روبوتات الدردشة أكثر من شخص واحد بكثير”.
وتحدث هينتون أيضاً عن عدة أسباب أخرى دفعته للاستقالة من عمله: “واحد منها، أنني أبلغ الآن 75 عاماً. والآخر هو أنني أريد أن أقول أشياء جيدة عن غوغل. وستكون أكثر مصداقية إن لم أكن أعمل لصالح غوغل”.
وشدد على أنه لا يريد انتقاد غوغل، وعلى أن الشركة كانت “مسؤولة للغاية”.
وقال كبير علماء غوغل جيف دين: “لا نزال نلتزم بمقاربة مسؤولة للذكاء الاصطناعي. نتعلم باستمرار لفهم المخاطر الناشئة في ظل الابتكار بجرأة أيضاً”.

رائد الذكاء الاصطناعي جيفري هينتون، موضحا في مقابلة مع صحيفة نيويورك تايمز الأميركية أنه غادر للتحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن 5 مخاطر أساسية للذكاء الاصطناعي.
اولا: حذار من أن تتجاوز الآلة صانعها
أدت المنافسة بين عمالقة التكنولوجيا الكبرى إلى تقدم لا يمكن لأحد أن يتخيله، وفقا لجيفري هينتون، فقد تجاوزت السرعة التي يحدث بها التقدم توقعات العلماء و”لم يؤمن سوى عدد قليل من الناس بفكرة أن هذه التكنولوجيا يمكن أن تصبح في الواقع أكثر ذكاء من البشر.. وكنت شخصيا أعتقد أن ذلك لن يحدث إلا في غضون 30 إلى 50 سنة أو ربما أكثر، وبالطبع، لم أعد الآن أعتقد ذلك”.
حتى العام الماضي، لم يكن يعتبر هذا التقدم خطيرا، لكن رأيه تغير عندما طورت غوغل و”أوبن إيه آي” OpenAI أنظمة عصبية قادرة على معالجة كميات كبيرة جدا من البيانات، التي يمكن أن تجعل هذه الأنظمة أكثر كفاءة من الدماغ البشري، وبالتالي فهي خطيرة للغاية.
ثانيا: تقليل فرص الوظائف في كل المجالات
من وجهة نظر اقتصادية، يخشى الأب الروحي للذكاء الاصطناعي من أن هذه التكنولوجيا يمكن أن تعطل سوق العمل بشكل كبير، حيث يقول: “الذكاء الاصطناعي يقضي على العمل الشاق”، مضيفا أنه “يمكن أن يقضي على ما هو أكثر من ذلك بكثير”، مما يؤثر على المترجمين والمساعدين الشخصيين على وجه الخصوص. فالقضاء على فرص العمل يسلم منها حتى الأكثر “ذكاء”، حتى وإن اعتقد بعضهم أنهم في مأمن من ذلك.
ثالثا تهديد “الروبوتات القاتلة”
يرى هذا الخبير أن التقدم التكنولوجي سريع للغاية، مقارنة بالوسائل المتاحة لدينا لتنظيم استخدام الذكاء الاصطناعي، ويعلق على ذلك قائلا: “لا أعتقد أنه يجب علينا الإسراع في ذلك حتى نفهم ما إذا كان بإمكاننا التحكم فيه”، فما يخشاه هذا الخبير هو أن تصبح الإصدارات المستقبلية “تهديدات للبشرية”.
ووفقا لهينتون، ستكون أنظمة الذكاء الاصطناعي المستقبلية قادرة على تطوير سلوكيات غير متوقعة بعد تحليل كمية كبيرة من البيانات، وقد أصبح هذا ممكنا، لأن أنظمة الذكاء الاصطناعي تولد الكود الخاص بها وتوجهه، مما قد يحولها إلى “أسلحة مستقلة” و”روبوتات قاتلة”، رغم أن العديد من الخبراء يقللون من شأن هذا التهديد.
رابعا: الذكاء الاصطناعي في أيدي جهات خبيثة
ووفقا له، فإن التهديد يأتي أيضا من إساءة استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة الخطرة. وهو قلق من أنه “من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض شريرة”. ويعارض هينتون بشكل خاص استخدام الذكاء الاصطناعي في المجال العسكري، وهو يخشى أساسا من تطوير البشر “للجنود الآليين”.
وقد كان جيفري هينتون قرر في ثمانينيات القرن الماضي ترك جامعة “كارنيغي ميلون” في الولايات المتحدة، لأن أبحاثه هناك تم تمويلها من قبل البنتاغون.
خامسا: “مولد تفاهات”
وأخيرا، يحذر جيفري هينتون من المعلومات المضللة المرتبطة بالذكاء الاصطناعي، ويبرز أن هذا الاندفاع العلمي وما يصاحبه من استخدام مكثف للذكاء الاصطناعي سيجعل من المستحيل تقريبا تمييز “ما هو صحيح مما هو كاذب”، حتى أن العالم يتحدث عن “مولد تفاهات”، وهو تعبير يشير إلى قدرة الذكاء الاصطناعي على إنتاج عبارات مقنعة تبدو معقولة دون أن تكون صحيحة.
إذن ما الحل؟ يؤيد خبير الشبكة العصبية تعاونا دوليا يشمل كل المختصين في هذا المجال، لكنه يشكك في القدرة على تحقيق ذلك قائلا: “قد يكون الأمر مستحيلا.. فلا توجد طريقة لمعرفة ما إذا كانت الشركات أو الدول تعمل على مثل هذه البرامج سرا، والأمل الوحيد هو أن يعمل أهم العلماء في العالم يدا بيد لإيجاد حلول للتحكم في الذكاء الاصطناعي”.