Meta تنوي استخدام الذكاء الاصطناعي في تقييم المخاطر للمنتجات بدلاً من المراجعين البشريين

existجديد التقنيةمنذ 9 أشهر2K مشاهدة

في خطوة جديدة و اخبار تقنية جديدة تُظهر التحول المتسارع نحو التكنولوجيا، تنوي شركة ميتا (Meta) الاعتماد على الذكاء الاصطناعي في تقييم المخاطر المتعلقة بمنتجاتها وتحديثاتها الجديدة، وتقليل الدور الذي يلعبه المراجعون البشريون. القرار، الذي تم الكشف عنه عبر تقرير من إذاعة NPR الأمريكية استنادًا إلى وثائق داخلية من ميتا، أثار موجة من التساؤلات حول فعالية ودقة الأنظمة الذكية في التعامل مع القضايا الحساسة التي تمس المستخدمين.

ميتا تعتمد على الذكاء الاصطناعي

ميتا تعتمد على الذكاء الاصطناعي في تقييم 90% من المخاطر

وفقًا لما ورد في التقرير، تهدف ميتا إلى جعل حوالي 90% من عمليات تقييم المخاطر تعتمد بشكل أساسي على الذكاء الاصطناعي، بدلًا من الفرق البشرية التي كانت تلعب هذا الدور سابقًا. وتسعى الشركة من خلال هذا التوجه إلى تسريع عمليات طرح المنتجات، وتقليل الوقت اللازم لمراجعة التحديثات الجديدة على منصاتها مثل فيسبوك، إنستجرام، وواتساب.

العملية الجديدة تعتمد على نموذج يقوم فيه فريق تطوير المنتج بملء استبيان مفصل حول الميزة أو الخدمة الجديدة، ليقوم الذكاء الاصطناعي بمراجعته وتحديد نقاط الضعف أو المجالات التي قد تشكل خطرًا. بعد استلام التقرير الآلي، يقوم الفريق التقني بمعالجة الملاحظات قبل إطلاق المنتج.

الذكاء الاصطناعي في تقييم المخاطر: هل هو بديل كافٍ للعقل البشري؟

رغم المزايا التقنية التي تقدمها هذه المنهجية الجديدة، يرى عدد من الموظفين الحاليين والسابقين في ميتا أن الاعتماد المفرط على الخوارزميات قد يُنتج ثغرات خطيرة في آليات الرقابة. وحذر هؤلاء، الذين رفضوا الكشف عن أسمائهم، من أن الذكاء الاصطناعي قد يتغاضى عن إشارات حساسة أو محتوى ضار لا يمكن رصده بسهولة إلا من قبل مراجع بشري متمرس.

قال أحد التنفيذيين السابقين:

“عندما تقلل من التدقيق البشري، فأنت تزيد من احتمالات وقوع مشاكل حقيقية. بعض التأثيرات السلبية لا تظهر إلا بعد انتشار المنتج بين المستخدمين، وعندها يكون الأوان قد فات”.

الذكاء الاصطناعي ومجالات المخاطر الحساسة

اللافت أن ميتا لا تنوي استخدام الذكاء الاصطناعي في تقييم المخاطر فقط في المهام الروتينية، بل تخطط لتطبيقه في مجالات حساسة للغاية تشمل:

  • المخاطر المتعلقة بالأطفال والمراهقين.
  • النزاهة الرقمية، بما في ذلك الأخبار الكاذبة والمحتوى المضلل.
  • المحتوى العنيف والصادم.
  • خطاب الكراهية والتنمر.

وهذه المجالات تُعتبر شديدة التعقيد، وقد يكون من الصعب على نظام ذكاء اصطناعي فهم سياقاتها بشكل دقيق، خاصة في ما يتعلق بالثقافات المختلفة واللغة التعبيرية.

التغيير ينعكس على نتائج تقارير النزاهة

جاءت هذه التغييرات في الوقت الذي أصدرت فيه ميتا أول تقارير النزاهة الفصلية بعد تعديل سياساتها في الإشراف على المحتوى. وأظهرت النتائج الأولية:

  • انخفاض عدد المنشورات التي تم إزالتها.
  • ارتفاع طفيف في حالات التنمر والمضايقات.
  • زيادة محدودة في انتشار المحتوى العنيف.

يربط البعض هذا التغيير مباشرة بالاعتماد المتزايد على الذكاء الاصطناعي، والذي يبدو أنه أصبح أقل صرامة في مراقبة بعض أنواع المحتوى.

Meta AI

ميتا: الذكاء الاصطناعي للمخاطر البسيطة والخبرة البشرية للقضايا المعقدة

من جانبها، ردت شركة ميتا على تقرير NPR موضحة أن الشركة لا تزال ملتزمة بالاستعانة بالخبراء البشريين في الحالات الجديدة أو المعقدة. لكنها في الوقت نفسه تعتبر أن المخاطر المتكررة أو منخفضة الأثر يمكن أن تُدار بفعالية باستخدام الذكاء الاصطناعي.

لكن هذا التقسيم يثير تساؤلات، خاصة أن التمييز بين “الخطر البسيط” و”الخطر المعقد” ليس دائمًا واضحًا، ويمكن أن تختلف التقديرات من حالة إلى أخرى.

دوافع اقتصادية وتقنية وراء القرار

يرى محللون أن الذكاء الاصطناعي في تقييم المخاطر هو تحول قد لا يكون فقط بدافع تحسين الأداء، بل أيضًا نتيجة ضغوط اقتصادية. فقد قامت ميتا خلال العامين الماضيين بتسريح آلاف الموظفين، وتبحث عن طرق لخفض التكاليف التشغيلية. ويُعد استبدال فرق المراجعة البشرية بأنظمة آلية وسيلة فعالة لتقليل النفقات، رغم أنها قد تحمل في طياتها مخاطر تتعلق بسلامة المنصات ومستخدميها.

ماذا يعني هذا لمستقبل الإشراف على المحتوى؟

إذا نجحت ميتا في تطبيق نموذجها الجديد وجعلت الذكاء الاصطناعي في تقييم المخاطر جيدا، فمن المتوقع أن تتبعها شركات تكنولوجيا أخرى، ما قد يؤدي إلى إعادة تشكيل مفهوم الإشراف على المحتوى الرقمي عالميًا. لكن في المقابل، فإن أي فشل أو حادثة كبرى ناجمة عن خلل في تقييم المخاطر قد تفتح الباب أمام دعاوى قضائية أو تدخلات تنظيمية من الحكومات وهيئات الرقابة.

الذكاء الاصطناعي في تقييم المخاطر: بين الفعالية والمخاوف

لا شك أن الذكاء الاصطناعي في تقييم المخاطر يوفر مزايا كبيرة من حيث السرعة والكفاءة، لكنه يظل أداة لا يمكن فصلها عن التدخل البشري، خاصة في الحالات التي تتطلب فهمًا للسياق الأخلاقي والثقافي والاجتماعي.

وفي الوقت الذي تتجه فيه ميتا نحو الأتمتة الكاملة لبعض وظائفها الرقابية، تبقى المخاوف قائمة بشأن فقدان “اللمسة البشرية” التي يمكنها التفريق بين محتوى عادي وآخر ينطوي على تهديد حقيقي.

الخاتمة: بين الابتكار والمسؤولية

قرار ميتا بالاعتماد على الذكاء الاصطناعي في تقييم المخاطر هو خطوة طموحة تعكس الرغبة في الابتكار والتطور. لكن في بيئة رقمية يعجّ بها المحتوى المتنوع، فإن التوازن بين التقنية والإنسانية يبقى ضروريًا لضمان سلامة المستخدمين وموثوقية المنصات.

المراقبون ينتظرون نتائج هذا التحول خلال الأشهر المقبلة، ليروا ما إذا كان الذكاء الاصطناعي قادرًا فعليًا على تحمل هذا الدور الحساس، أم أن العودة إلى التدخل البشري ستبقى حتمية في نهاية المطاف.

25 Votes: 19 Upvotes, 6 Downvotes (13 Points)

ابق على اطلاع بأحدث الأخبار وأهمها

I consent to receive newsletter via email. For further information, please review our Privacy Policy

إعلان

Loading Next Post...
تابعنا
Sidebar Search Trending
تريند دلوقتي
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...