المحتوى الرئيسى

لنكن حذرين من التكنولوجيا

04/26 17:54

نحن فى عصر التقدم العلمى والتكنولوجى، وكلما سرنا نحو المستقبل يزداد التقدم التكنولوجى والعلمى ويقل التقدم الإنسانى للأسف. على سبيل المثال الأسلحة الأكثر تقدما تعنى اغترار بعض الدول بقوتها مما يعنى عددا أكبر من الضحايا. الأسلحة ليست الشىء الوحيد الذى له أخطار، كل أنواع التكنولوجيا لها مخاطرها كما أن لها منافعها. هذا المقال سيتحدث عن واحدة من أهم المخاطر التى نواجها من التكنولوجيا الحديثة وهى متعلقة بمعلوماتك الشخصية: سرقتها وتزييفها، مثل الاسم وتاريخ الميلاد وصورتك والفيديوهات المسجلة لك وحساباتك البنكية وما تضعه على وسائل التواصل الاجتماعى... إلخ. فما الذى يجب أن نكون حذرين منه؟

تخيل أن هناك برنامجين للذكاء الاصطناعى، الأول يزيف فيديوهات لك، مثلا يظهرك وأنت تتكلم مع شخص وتقول كلاما ما وأنت لم تقابل هذا الشخص فى حياتك ولم تقل هذا الكلام. البرنامج الآخر يحاول كشف زيف هذا الفيديو. إذا وجد البرنامج الثانى أن الفيديو مزيف فإنه يخبر البرنامج الأول بذلك فيحاول الأول إتقان عمله وينتج فيديو آخر أكثر اتقانا فى التزييف ويعيد إرساله للبرنامج الثانى. ويظل البرنامجان فى تلك الدائرة حتى يعجز البرنامج الثانى عن كشف التزييف، وبهذا يصبح الفيديو جاهزا للنشر. هذان البرنامجان هما من برامج الذكاء الاصطناعى وعملهما مع بعضها يسمى (Generative adversarial network) والترجمة الحرفية هى «شبكة الخصومة التوليدية»، كلمة التوليدية معناها أن هناك توليدا لشىء وهو الفيديو فى حالتنا هذه وكلمة الخصومة تعنى أن البرنامج الثانى يُعتبر خصما للأول لأنه يحاول كشف تزييفه والأول خصما للثانى لأنه يحاول أن يخدعه. عندما يتم نشر الفيديو فهذا معناه أنه من الصعب جدا كشف التزييف لأن البرنامج الثانى عجز عن كشفه فما بالك بالبشر؟ هذا ما نسميه (deep fake) أو «التزييف العميق» وسيعتبر لعنة العقود القادمة. نحن هنا نتكلم عن الأخطار، التزييف العميق له فوائد لكن لن نتحدث عنها الآن.

ماذا يمكنك أنت أن تفعل حيال ذلك؟ كى نجيب على هذا السؤال يجب أن نسأل: كيف يمكن لبرمجيات أن تنتج فيديو مزيف؟ يتأتى ذلك عن طريق برمجيات الذكاء الاصطناعى المسماة بتعليم الآلة (machine learning). عن طريق إعطاء الآلة كميات كبيرة من الفيديو والصور فإنها تتعلمها ثم تتمكن من توليد الفيديو المزيف. إذا كلما قللت أنت من الفيديوهات التى تظهر فيها وتشاركها الجميع على منصات التواصل الاجتماعى كلما قلت ولو بنسبة قليلة احتمالية تزييف فيديو لك.

هل يمكن كشف هذا التزييف العميق؟ يمكن ذلك إن كنت تمتلك برنامجا أكثر قوة وعلى جهاز أكثر سرعة من ذلك الذى تم استخدامه فى الـ(GAN) الذى تحدثنا عنه. لا تنس أنه يتم استخدام برنامجين: أحدهما للتزييف والآخر لكشف التزييف، فإن كنت تمتلك برنامجا أقوى من ذلك المستخدم لكشف التزييف فإنه يمكنك كشف التزييف العميق. هذا سبب آخر كى نتعلم ونمتلك أجهزة كمبيوتر فائقة السرعة ولا نركز كل جهودنا على موضة الذكاء الاصطناعى.

وحيث أننا نتكلم عن الفيديو فماذا عن الصور؟

الآن أصبح أغلب الناس إن لم يكن جميعهم يحملون هواتف ذكية، تلك الهواتف بها كاميرات عالية الدقة. نحن لا نتحدث عن الهواتف غالية الثمن مثل الأيفون لكن أى هاتف ذكى به تلك الكاميرات. وأغلب الناس تحب تصوير أنفسهم ووضع تلك الصور على منصات التواصل الاجتماعى. ما الخطر فى ذلك؟

هذه الصور تستخدم فى تدريب برمجيات الذكاء الاصطناعى، ومن يستطيع تزييف فيديو لن يكون من الصعب عليه تزييف صورة.

إذا ظهرت أصابعك فى الصورة فبصماتك أصبحت أيضا فى حوزة تلك البرمجيات.

صورة وجهك وشكل عينيك أصبحا أيضا فى حوزة تلك البرمجيات. الوجه والعينان وبصمات الأصابع كافية جدا للدخول على حساباتك على تعتمد على القياسات الحيوية (biometrics).

صورك تعطى معلومات كثيرة عن أماكن تواجدك والأماكن التى تحبها وهى معلومات قد تستخدم فيما بعد إما لإرسال إعلانات لك أو ما هو أسوأ.

طبعا إذا طلبت منك ألا تضع صورك على منصات التواصل فسترفض خاصة إذا كنت من الجيل الجديد، لكن على الأقل ضع صورا ذات جودة متوسطة أو قليلة (low resolutions).

وحيث إننا نتحدث عن مواقع التواصل الاجتماعى، فما هى الأخطار المحتملة؟

مواقع التواصل الاجتماعى لها فوائد جمة منها التواصل مع المقربين فى الغربة بالإضافة إلى تبادل المعلومات. لكن هناك أخطارا:

موضوع الصور والفيديوهات تكلمنا عنه أعلاه.

معلوماتك مثل تاريخ الميلاد ورقم التليفون قد تستخدم فى انتحال شخصيتك. قد تقول إن هذه المعلومات متاحة للأصدقاء فقط، فهل تثق فى كل شخص عندك فى قائمة الأصدقاء؟ خاصة أننا فى عصر يتفاخر الناس فيه بكثرة المتابعين.

موقع مثل (LinkedIn) يحتوى على معلومات عن دراساتك وسجلك الوظيفى مما قد يستخدم لاحقا فى النصب عليك عن طريق (social engineering)، سنتكلم عن ذلك فى مقال آخر.

أهم أخبار الوسيط

Comments

عاجل