خدع تهدد مستقبل الذكاء الاصطناعي

خدع تهدد مستقبل الذكاء الاصطناعي

منذ 7 سنوات

خدع تهدد مستقبل الذكاء الاصطناعي

خدع تهدد مستقبل الذكاء الاصطناعي\nهذه روابط خارجية وستفتح في نافذة جديدة\nشارك هذه الصفحة عبر فيسبوك\nشارك هذه الصفحة عبر تويتر\nشارك هذه الصفحة عبر Messenger\nشارك هذه الصفحة عبر Messenger\nشارك هذه الصفحة عبر البريد الالكتروني\nهذه روابط خارجية وستفتح في نافذة جديدة\nشارك هذه الصفحة عبر البريد الالكتروني\nشارك هذه الصفحة عبر فيسبوك\nشارك هذه الصفحة عبر Messenger\nشارك هذه الصفحة عبر Messenger\nشارك هذه الصفحة عبر تويتر\nشارك هذه الصفحة عبر Google+\nشارك هذه الصفحة عبر WhatsApp\nشارك هذه الصفحة عبر LinkedIn\nهذه روابط خارجية وستفتح في نافذة جديدة\nImage caption علماء يشعرون بالقلق إزاء مستقبل الذكاء الاصطناعي\nلا يزال أمام الآلات شوط طويل لترقى إلى مستوى البشر في التعلم من الخبرات السابقة، وهذا الأمر يمثل مخاطر محتملة لا تقتصر على الخصوصية والأمن فحسب، بل تتعداهما إلى أمور أخرى.\nما حدث في هذه الحالة هو أن هذا الملصق الصغير جعل اللافتة تبدو واضحة للسيارة وكأنها شيء مختلف تماما عن لافتة التوقف.\nربما قد تجد هذا الأمر بعيد الاحتمال، ولكن الكثير من الأبحاث أثبتت أن الذكاء الاصطناعي يسهل خداعة بنفس الطريقة، بحيث يرى الأشياء بصورة تختلف كليا عن تلك التي يراها بها البشر.\nوفي ظل هيمنة الخوارزميات، التي يمكن للآلات التعلم منها، على طرقنا وإدارة أموالنا وأنظمة الرعاية الصحية، يأمل علماء الكمبيوتر أن يتوصلوا إلى وسائل تمكنهم من حماية الخوارزميات من الهجمات المتوقعة من هذا النوع، قبل أن يحاول شخص ما خداعها بالفعل.\nيقول دانييل لود، الأستاذ المساعد بقسم علوم الكمبيوتر والمعلومات بجامعة أوريغون: "يشعر العاملون في مجال التعلم الآلي والذكاء الاصطناعي بالقلق حيال عمليات الاحتيال بسبب زيادة الاعتماد على هذه الخوارزميات".\nويضيف لوود: "يمكن أن تصل إلى بريدك الإلكتروني الرسائل المزعجة غير المرغوب فيها أو تتعرض بعض رسائل بريدك للحجب، لكن هذا ليس نهاية العالم. وإذا كنت تعتمد كليا على نظام الرؤية في السيارات ذاتية القيادة لمعرفة المكان الذي تتجه إليه وتفادي الاصطدام بأي شيء، فإن المخاطر ستكون أعلى."\nويرجع السبب في تعطل الآلة الذكية أو تعرضها للقرصنة، إلى الطريقة المختلفة التي ترى بها خوارزميات التعلم الآلي العالم من حولها. ومن هنا قد ترى الآلة حيوان الباندا في صورة قرد الغيبون، أو تبدو لها الحافلة المدرسية في صورة نعامة.\nوقد أبرز باحثون من فرنسا وسويسرا في إحدى التجارب كيف أدى هذا التشويش في الرؤية إلى عجز الكمبيوتر عن التمييز بين السنجاب والثعلب أو كوب القهوة وحيوان المكاو.\nولكن كيف يحدث هذا الالتباس؟ فكر في الطريقة التي يتعلم بها الطفل الأرقام، فالطفل يجب أن ينظر إلى كل رقم على حدة، حتى يتعرف على خصائصه المحددة،. وعندما يرى الطفل المزيد من الأمثلة، يتعرف سريعا على أرقام جديدة، مهما اختلف الخط.\nوبهذه الطريقة أيضا تتعلم خوارزميات التعلم الآلي كيفية تمييز الأشياء الموجودة في العالم، إذ يغذي العلماء أحد أجهزة الكمبيوتر بآلاف الأمثلة عن أي شيء يريد العلماء أن يرصده الكمبيوتر، وكل مثال منها يحمل علامة مميزة في المعتاد. وبعد أن تفحص الآلة البيانات وتفرز الأرقام، فإنها تتعرف على السمات التي تساعدها في الإجابة، وسرعان ما تتمكن من تمييز الرقم بمجرد النظر إليه بدقة عالية.\nمصدر الصورة Getty Images Image caption تغلغل الذكاء الاصطناعي في كل جوانب حياتنا اليومية ولم يعد بإمكاننا الاستغناء عنه، بداية من السيارات ذاتية القيادة ووصولا إلى الأجهزة المنزلية التي تعمل ذاتيا\nويمكن القول إن الأطفال وأجهزة الكمبيوتر يتعلمان بنفس الطريقة كيفية التعرف على طائفة كبيرة من الأشياء، بدءا من الأرقام والقطط والقوارب، ووصولا إلى الوجوه البشرية.\nولكن على عكس الطفل، لا ينتبه الكمبيوتر إلى التفاصيل عالية الدقة، مثل أذن القطة أو شكل الزاوية المميز للرقم أربعة، لأنه لا ينظر إلى الصورة ككل. لكن الكمبيوتر ينظر إلى كل بيكسل من الصورة على حدة ويحاول أن يجد أسرع طريقه لتمييز كل بيكسل عن الآخر.\nولهذا، عند إدخال تغييرات دقيقة جدا كما حدث في لافتة التوقف، ينخدع الكمبيوتر ويخيل إليه أن لافتة التوقف هي شيء مختلف تماما.\nوأجريت أبحاث مشابهة في "مختبر الذكاء الاضطناعي المتطور" بجامعة وايومنغ وجامعة كورنيل، عرض فيها الباحثون عددا كبيرا من وسائل الخداع البصري على الذكاء الاصطناعي. وعلى الرغم من أن البشر لم يتكمنوا من تمييز هذه الصور ذات التأثيرات البصرية ذات الألوان والأشكال المبهمة، فإن الكمبيوتر استطاع أن يميزها بسرعة ولكنها بدت له في صورة بنادق أو ثعابين. وهذا يدل على أن الذكاء الاصطناعي قد ينظر إلى الشيء ثم يجيب إجابة لا تمت بصلة لحقيقتها.\nويقول يفجيني فوروبيتشيك، الأستاذ المساعد بقسم هندسة وعلوم الكمبيوتر بجامعة فاندربيلت: "علينا أن نتوقع أن كل خوارزم له نقطة ضعف تجعله عرضة للوقوع في الخطأ. فنحن نعيش في عالم معقد متعدد الأبعاد، ولا تركز الخوارزميات، بسبب طبيعتها، إلا على جزء صغير نسبيا منه".\nويؤكد فويوبيكيك أنه في حالة وجود نقاط ضعف في الخوارزميات، سيحاول البعض استغلالها، وربما تكون قد اسُتغلت بالفعل.\nوهذا يذكرنا بمرشحات الرسائل الإلكترونية المزعجة غير المرغوبة، وهي البرامج التي تستبعد أي رسائل تبدو مشبوهة، وقد يحاول مرسلو هذا النوع من الرسائل تجاوز المرشحات من خلال تغيير بعض الحروف في الكلمات التي تتكرر في الرسائل المشبوهة أو بإضافة مجموعة من الكلمات التي ترد عادة في الرسائل العادية مثل كلمات "يُسعدني" أو "أنا"، أو "بالطبع"، أو التغطية على الكلمات التي تظهر عادة في الرسائل الشاذة، مثل "لقد فزت بكذا" أو "جهاز محمول" أو "يمكنك المطالبة بكذا".\nوبخلاف الاحتيال بوضع ملصق على لافته التوقف، وهو تصور طرحة خبراء في هذا المجال، فإنه من الممكن للمهاجمين تسريب بيانات إباحية من دون أن تكتشفها المرشحات التي تمنع دخول المعلومات غير الآمنة، أو يحاول آخرون زيادة الأرقام على أحد الشيكات المصرفية، أو ربما يحاول قراصنة إدخال تغييرات طفيفة على شفرة البرمجيات الخبيثة لتخترق وسائل حماية المعلومات الرقمية.\nوقد يتمكن المهاجمون من اختلاق بيانات معادية تمكنهم من خداع خوارزم التعلم الآلي، إذا استطاع أن يحصل على نسخة من هذه الخوارزميات. لكن هذا قد يحدث من دون اللجوء لهذه الطريقة، فقد يعزز المخترقون من هجومهم عبر محاولات عديدة، فيُرسل صيغا مختلفة من الرسالة الإلكترونية أو الصورة أو غير ذلك، حتى تنجح إحدى هذه الصيغ في خداع الخوارزميات.\nومع مرور الوقت، قد يُستخدم هذا الأمر في ابتكار نموذج جديد من الخوارزميات يعرف جيدة نوعية البيانات التي يبحث عنها أصحاب النوايا الحسنة، وكيفية إنتاج بيانات تمكنه من خداعها.\nمصدر الصورة Getty Images Image caption السيارات ذاتية القيادة وأجهزة الروبوت التي تجري العلميات الجراحية تُحيط بها الكثير من المخاطر، فأي خطأ طفيف ترتكبه الآلات الحديثة سيسبب الكثير من المشاكل\nويقول باتريك ماكدانييل، أستاذ هندسة وعلوم الكمبيوتر بجامعة بنسلفانيا: "يحاول الناس التحايل على أنظمة التعلم الآلي منذ نشأتها. وإذا انتشر استخدام هذه الأساليب، فإننا قد لا نستطيع اكتشافها".\nبالإضافة إلى المحتالين الذين يتحينون الفرص لخداع المستخدم، قد يحاول البعض الكشف عن البيانات السرية للمستخدم أو انتحال شخصية أخرى للإفلات من رقابة الوسائل التكنولوجية الحديثة الصارمة.\nويقول لود: "إذا كنت معارضا سياسيا تعيش في دولة يحكمها نظام قمعي، وأردت أن تزاول أنشطتك السياسية من دون أن تُستهدف، فإن القدرة على تفادي تقنيات الرقابة الآلية القائمة على خوارزميات التعلم الآلي قد يكون وسيلة إيجابية."\nوفي مشروع نُشر في أكتوبر/تشرين الأول صمم الباحثون في جامعة "كارنيغي ميلون" إطار نظارة خصيصا لخداع نظام التعرف على الوجوه، وبالاستعانة بهذا الإطار، لم يتمكن الكمبيوتر من تمييز وجه الممثلة ريث ويذرسبون عن وجه الممثل راسيل كرو. ولكن هذه التقنية ربما تفيد من يحاول بشتى الطرق أن يتفادي رقابة السلطة الحاكمة.\nويقول لود: "السبيل الوحيد لتفادي خداع الخوارزميات هو بناء نموذج مثالي لا يخطأ أبدا". المشكلة أننا حتى لو توصلنا إلى ذكاء اصطناعي يفوق الإنسان مهارة وذكاء، فسنواجه المزيد من الحالات الملتبسة التي لم يكشف أحد غموضها بعد.\nوتمتاز خوارزميات التعلم الآلي بدقتها المتناهية، فقد استطاع أحد البرامج أن يتعرف على 99 في المئة من المقاعد المختلفة، وهذا أفضل بالطبع من برنامج آخر يتعرف على الأشياء بدقة ست مرات من بين عشرة مرات. لكن بعض الخبراء يرون أنه يجب قياس قدرة الخوارزم على التصدي للهجوم، وكلما زادت قدرته على المقاومة، اعتبر أفضل من غيره.\nوثمة حل آخر وهو أن يختبر المتخصصون البرامج بأنفسهم، وذلك من خلال محاكاة هجمات افتراضية في المختبر استنادا إلى توقعاتهم لسلوك المحتال، ثم عرضها على خوارزم التعلم الآلي، وهذا قد يساعدهم الخوارزم على اكتساب قدرة أكبر على الصمود أمام الهجمات في المستقبل، ولكن شريطة أن تتطابق الهجمات التي أجريت في المعمل مع نوعية الهجمات التي يتعرض لها في الحقيقة.\nويقترح ماكدانييل أن يكون البشر جزءا من الحلول دائما، كلما كان ذلك ممكنا، ليتحققوا من صحة تخمينات الخوارزميات. ويجري الاستعانة بفريق بشري في بعض أجهزة المساعدة الذكية، مثل المساعد الافتراضي "إم" الذي أطلقتة شركة فيسبوك، حيث يراجع أفراد الفريق إجابات المساعد "إم" ويعدلونها إذا لزم الأمر. ويحبذ البعض وجود البشر في التطبيقات الحساسة لخوارزميات التعلم الآلي.\nويضيف ماكدانييل: "تُعد أنظمة التعلم الآلي وسيلة للاستدلال بناء على التجارب السابقة، ولكن علينا أن نتعامل بفطنة وعقلانية مع المعلومات التي نُدخلها إلى هذه الأنظمة والمعلومات والتنبؤات التي تخرجها لنا. فلا يجب أن نعتبرها من المسلمات التي لا تقبل الجدل".\nيمكنك قراءة الموضوع الأصلي على موقعBBC Future.

الخبر من المصدر