00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
مدار الليل والنهار
02:30 GMT
148 د
مدار الليل والنهار
05:00 GMT
183 د
عرب بوينت بودكاست
10:03 GMT
36 د
مدار الليل والنهار
البرنامج المسائي
11:00 GMT
183 د
مدار الليل والنهار
18:00 GMT
120 د
مدار الليل والنهار
20:00 GMT
31 د
مدار الليل والنهار
02:30 GMT
149 د
مدار الليل والنهار
05:00 GMT
183 د
مدار الليل والنهار
البرنامج المسائي
09:00 GMT
303 د
عرب بوينت بودكاست
التعاون الدولي بين الجامعات العربية والأجنبية
16:03 GMT
27 د
الإنسان والثقافة
ليو تولستوي - كاتب ومفكر ومصلح اجتماعي روسي عظيم
16:31 GMT
29 د
مساحة حرة
كيف يمكن مواجهة ظاهرة تهريب المخدرات التي تؤرق دولا عربية
17:00 GMT
29 د
عرب بوينت بودكاست
نحو مليار جائع وأطنان من الطعام في النفايات
17:29 GMT
13 د
مرايا العلوم
الطيور تتألق في الإغلاق والذكاء والاضطراب وإنسان الجزيرة العربية
17:42 GMT
18 د
مدار الليل والنهار
البرنامج الصباحي - اعادة
18:00 GMT
120 د
مدار الليل والنهار
البرنامج الصباحي - اعادة
20:00 GMT
30 د
أمساليوم
بث مباشر
 - سبوتنيك عربي, 1920
مجتمع
تابع آخر الأخبار عن القضايا الاجتماعية والفعاليات الثقافية في دول الوطن العربي والعالم. تعرف على آخر أخبار المجتمع، قصص إنسانية، وتقارير مصورة عن حياة المجتمع.

مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة

© REUTERS / Dado Ruvicفيسبوك
فيسبوك - سبوتنيك عربي, 1920, 10.02.2021
تابعنا عبر
كشفت تقارير صحفية عن مواجهة علماء من شركتي "مايكروسوفت" و"فيسبوك" الأمريكيتين لظاهرة خطيرة، ألا وهي "التزييف العميق" لمقاطع الفيديو.

أوضح تقرير منشور عبر موقع "إنغادجيت" التقني المتخصص أن شركتي "مايكروسوفت" و"فيسبوك" جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من أجل ابتكار تقنية لاكتشاف "التزييف العميق"، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

تطبيق فيسبوك للتواصل الاجتماعي - سبوتنيك عربي, 1920, 15.06.2020
"الذكاء الصناعي" يساعد "فيسبوك" على الكشف عن مقاطع الفيديو "المزيفة"

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن "التزييف العميق"، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق، باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها "الأمثلة المتناقضة" في طل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه، التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة، لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًا من خلال النظر إلى العناصر، التي لم يتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.

شريط الأخبار
0
للمشاركة في المناقشة
قم بتسجيل الدخول أو تسجيل
loader
المحادثات
Заголовок открываемого материала