08:04 GMT17 يناير/ كانون الثاني 2021
مباشر
    علوم
    انسخ الرابط
    0 20
    تابعنا عبر

    كشفت تسريبات جديدة من داخل شركة "ألفابت"، الشركة الأم لـ"غوغل" سر رفض الأخيرة لعدد هائل من الاختراعات سنويا، وما تجبر عليه علمائها وباحثيها، وبالأخص في مجال الذكاء الصناعي.

    كشفت دراسة متعمقة، نشر تفاصيلها موقع "تايمز نيوز ناو" عن أن غوغل تشدد الرقابة على أبحاث علمائها، وتجبرهم على عدم التطرق إلى "مواضيع حساسة" قد تسبب نظرة "سلبية" لدى مستخدمي الإنترنت من تقنيات الذكاء الصناعي، أو تسبب مشاكل مع دول وحكومات.

    ونقلت الدراسة مقابلات سرية مع باحثين داخل "غوغل"، تظهر رفض عدد هائل من الاختراعات، ومطالبتهم بأن تأخذ أبحاثهم منحى إيجابي يحسن نظرة الناس للذكاء الصناعي.

    وتطلب إجراءات المراجعة الجديدة في غوغل من الباحثين التشاور مع فرق الشؤون القانونية والسياسة والعلاقات العامة، قبل متابعة مواضيع مثل تحليل الوجه والمشاعر وتصنيفات العرق أو الجنس أو الانتماء السياسي .

    وأظهرت منشورات داخلية في غوغل أيضا أن إدارة الشركة الأمريكية طالبتهم بتفهم أن تعقيدات التكنولوجيا أكبر في البيئة الخارجية، وعليها أن تبدو غير مسيئة أخلاقيا أو تضر بسمعة الشركة أو تدخلها في مشاكل تنظيمية أو قانونية مع الحكومات.

    وقال عدد من الباحثين داخل غوغل إن تلك السياسة الجديدة بدأت تطبيقها منذ يونيو/حزيران الماضي.

    ورفض مسؤولو شركة غوغل التعليق على تلك التقارير، ولكن صرحت "غوغل" عبر موقعها العام إن علمائها يتمتعون بـ"حرية كبيرة".

    ويضيف ثمانية موظفين حاليين وسابقين أن عملية "الموضوعات الحساسة"، تضيف عبئا إضافيا على الباحثين والعلماء، حيث تدخلهم في جولة من التدقيق إلى مراجعة غوغل القياسية للأوراق البحثية، بحثًا عن عيوب مثل الكشف عن الأسرار التجارية.

    بالنسبة لبعض المشاريع، تدخل مسؤولو غوغل في مراحل لاحقة، بحسب تصريحات قال أحد كبار مديري غوغل الذين راجعوا دراسة حول تقنية توصية المحتوى قبل وقت قصير من النشر هذا الصيف للمؤلفين "توخي الحذر الشديد لإضفاء طابع إيجابي".

    وامتدت تلك المراجعات والتدقيقات أيضا إلى موقع يوتيوب التابع لشركة "غوغل".

    قال أربعة باحثين من فريق العمل، بمن فيهم كبيرة العلماء مارجريت ميتشل ، إنهم يعتقدون أن غوغل بدأت تتدخل في الدراسات الحاسمة للأضرار التكنولوجية المحتملة.

    وقالت ميتشل: "إذا كنا نبحث عن الشيء المناسب نظرًا لخبرتنا، ولا يُسمح لنا بنشر ذلك على أسس لا تتماشى مع مراجعة الأقران عالية الجودة، فإننا ندخل في مشكلة خطيرة تتعلق بالرقابة".

    واندلعت التوترات بين غوغل وبعض موظفيها هذا الشهر بعد الخروج المفاجئ للعالمة تيمنت غيبرو، الذي قاد فريقًا مكونًا من 12 شخصًا مع ميتشل يركز على الأخلاقيات في برامج الذكاء الصناعي.

    وتقول غيبرو إن جوجل طردتها، بعد أن شككت في أمر بعدم نشر بحث يزعم أن الذكاء الصناعي يحاكي الكلام، يمكن أن يضر بالفئات المهمشة.

    قالت غوغل إنها قبلت استقالتها وسرعت في ذلك ولم يتسن تحديد ما إذا كانت ورقة غيبرو قد خضعت لمراجعة "موضوعات حساسة".

    قال جيف دين نائب رئيس غوغل الأول في بيان هذا الشهر إن ورقة غيبرو ركزت على الأضرار المحتملة دون مناقشة الجهود الجارية لمعالجتها.

    وأضاف دين أن غوغل تدعم منحة أخلاقيات الذكاء الصناعي وهي "تعمل بنشاط على تحسين عمليات مراجعة الأوراق لدينا، لأننا نعلم أن الكثير من الضوابط والتوازنات يمكن أن تصبح مرهقة."

    انظر أيضا:

    غوغل تكشف سر تعطل يوتيوب وبعض خدماتها الاثنين الماضي
    هواوي تفاجئ غوغل بإطلاقها محرك بحث جديد خاص بها
    "شكرا.. فلاديمير فلاديميروفيتش".. "غوغل" تعتذر عن خطأ في الترجمة استخدمت به اسم الرئيس الروسي
    "غوغل" تقدم تحديثا جديدا للبحث الصوتي عبر أنظمة "أندرويد"
    علماء يابانيون يتحققون من صحة توقعات "غوغل" حول تفشي فيروس "كورونا"
    الكلمات الدلالية:
    الذكاء الصناعي, الذكاء الاصطناعي, علماء, وظائف غوغل, شركة غوغل, غوغل
    معايير المجتمعنقاش
    التعليق بواسطة Sputnikالتعليق بواسطة Facebook