00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
مدار الليل والنهار
03:30 GMT
150 د
لبنان والعالم
البرنامج الصباحي
06:00 GMT
123 د
كواليس السينما
10:28 GMT
27 د
ع الموجة مع ايلي
البرنامج المسائي
13:00 GMT
183 د
لبنان والعالم
18:03 GMT
108 د
ع الموجة مع ايلي
03:30 GMT
150 د
لبنان والعالم
البرنامج الصباحي
06:00 GMT
123 د
قوانين الاقتصاد
خبير يوضح أسباب اهتمام روسيا بالاستثمار في سلطنة عمان
08:17 GMT
30 د
المقهى الثقافي
المسار الإبداعي للمسرحي السوري سمير عثمان
08:47 GMT
13 د
من الملعب
ريال مدريد يواجه بوروسيا دورتموند في نهائي دوري أبطال أوروبا
09:03 GMT
26 د
مساحة حرة
صناعة المخدرات وتجارتها يؤرق السلطات.. حلول عربية لكبح جماحها
09:30 GMT
30 د
ملفات ساخنة
هل يشكل الميناء الأمريكي المؤقت بديلا عن المعابر البرية في إدخال المساعدات لغزة؟
10:03 GMT
29 د
عرب بوينت بودكاست
المرأة الفلسطينية.. نضال في الحياة ودروس للتاريخ
10:33 GMT
27 د
كواليس السينما
الإعلام والسينما الرؤى والأهداف
11:03 GMT
27 د
صدى الحياة
خبير: الهدف من اغتصاب الأطفال في لبنان هو لبيع فيديوهاتهم ونشر الشذوذ في المجتمع
11:30 GMT
30 د
مساحة حرة
عراقي يحاول إحراق نفسه بسبب البطالة ، والمنطقة العربية تسجل أعلى معدل بطالة في العالم
12:03 GMT
27 د
مرايا العلوم
كيف تتحدى التقلبات الكمومية نظريات الموصلية الفائقة
12:31 GMT
29 د
مدار الليل والنهار
البرنامج المسائي
13:00 GMT
183 د
شؤون عسكرية
خبير: الدعوة لنشر قوات حفظ سلام في فلسطين تحتاج إلى قرار صادر من مجلس الأمن
16:03 GMT
29 د
أمساليوم
بث مباشر

العلماء يحذرون من حرب "نهاية العالم"

© Photo / Pixabayحرب نووية
حرب نووية - سبوتنيك عربي
تابعنا عبر
حذر علماء جامعة كورنيل من أن نقل السيطرة على الأسلحة النووية إلى الذكاء الاصطناعي يمكن أن ينتهي بـ "حرب نهاية العالم كما في "ترميناتور".

قام المتخصصون في جامعة كورنيل الأمريكية، عضو في رابطة آيفي، بإعداد تقرير يستخلص منه أن الانتقال إلى الآلات والروبوتات يمكن أن يتسبب في خروج الآلات عن نطاق السيطرة وإعلان الحرب على الإنسانية، تمامًا كما في سلسلة أفلام الخيال "Terminator" مع أرنولد شوارزنيغر، حسب "دايلي ميل".

وفقًا للخبراء، روسيا والصين تعتمدان بشكل متزايد على تقنيات الذكاء الاصطناعي، والتي قد تشكل في المستقبل مخاطر لا يعرفها العالم.

بالإضافة إلى ذلك، رأى العلماء مخاطر إشراك الذكاء الاصطناعي بنشاط في أنظمة الإنذار المبكر. وتذكروا حادثة عام 1983، عندما تجاهل الضابط السوفيتي ستانيسلاف بتروف إشارة النظام بإطلاق الصواريخ الأمريكية. أدرك بتروف أن الإشارة كانت خاطئة وبالتالي أنقذ العالم من حرب نووية محتملة بين الولايات المتحدة وروسيا.

في نفس الوقت، يعترف العلماء أنه يمكن لحوسبة الأسلحة النووية أن تزيد من موثوقية واستقرار هذه الأنظمة، إذ يمكن للذكاء الاصطناعي جمع البيانات وإجراء التحليلات، التي ستستخدمها القيادة العسكرية لاحقا.

ورأوا أنه عند تحديث الترسانات النووية، ينبغي للإدارة أن تسعى جاهدة لاستخدام أنظمة الكمبيوتر لتقليل مخاطر الحوادث العرضية والعمليات الخاطئة وزيادة سيطرة الإنسان على العمليات باستخدام الأسلحة النووية.

شريط الأخبار
0
للمشاركة في المناقشة
قم بتسجيل الدخول أو تسجيل
loader
المحادثات
Заголовок открываемого материала