00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
ع الموجة مع ايلي
02:30 GMT
147 د
مدار الليل والنهار
05:00 GMT
183 د
كواليس السينما
09:03 GMT
25 د
مدار الليل والنهار
11:00 GMT
183 د
مدار الليل والنهار
18:00 GMT
120 د
مدار الليل والنهار
20:00 GMT
35 د
مدار الليل والنهار
02:29 GMT
151 د
مدار الليل والنهار
05:00 GMT
183 د
مدار الليل والنهار
البرنامج المسائي
11:00 GMT
183 د
عرب بوينت بودكاست
مستقبل الحضارات والثقافات.. إلى أين؟
16:03 GMT
46 د
صدى الحياة
زرع ثقافة المثلية الجنسية في أفلام الكرتون... والضحايا هم الأطفال
16:49 GMT
11 د
عرب بوينت بودكاست
شارع المتنبي منارة تأريخية تحاكي العالم وقصة بواقع متجدد
17:00 GMT
35 د
مساحة حرة
هل تحل مشكلات الجفاف في العالم العربي؟
17:36 GMT
24 د
مدار الليل والنهار
البرنامج الصباحي - اعادة
18:00 GMT
120 د
مدار الليل والنهار
البرنامج الصباحي - اعادة
20:00 GMT
30 د
أمساليوم
بث مباشر
 - سبوتنيك عربي, 1920
مجتمع
تابع آخر الأخبار عن القضايا الاجتماعية والفعاليات الثقافية في دول الوطن العربي والعالم. تعرف على آخر أخبار المجتمع، قصص إنسانية، وتقارير مصورة عن حياة المجتمع.

مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة

© REUTERS / Dado Ruvicفيسبوك
فيسبوك - سبوتنيك عربي, 1920, 10.02.2021
تابعنا عبر
كشفت تقارير صحفية عن مواجهة علماء من شركتي "مايكروسوفت" و"فيسبوك" الأمريكيتين لظاهرة خطيرة، ألا وهي "التزييف العميق" لمقاطع الفيديو.

أوضح تقرير منشور عبر موقع "إنغادجيت" التقني المتخصص أن شركتي "مايكروسوفت" و"فيسبوك" جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من أجل ابتكار تقنية لاكتشاف "التزييف العميق"، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

تطبيق فيسبوك للتواصل الاجتماعي - سبوتنيك عربي, 1920, 15.06.2020
"الذكاء الصناعي" يساعد "فيسبوك" على الكشف عن مقاطع الفيديو "المزيفة"

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن "التزييف العميق"، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق، باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها "الأمثلة المتناقضة" في طل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه، التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة، لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًا من خلال النظر إلى العناصر، التي لم يتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.

شريط الأخبار
0
للمشاركة في المناقشة
قم بتسجيل الدخول أو تسجيل
loader
المحادثات
Заголовок открываемого материала