كيف تؤثر أدوات الذكاء الاصطناعي الطبية على صحة النساء؟

2025-09-22 14:59:17

وجدت عدة دراسات أن الأدوات الطبية التي تعتمد على نماذج الذكاء الاصطناعي متحيزة ضد النساء والأقليات العرقية في تشخيص حالاتهم المرضية بشكل يضع حياتهم في خطر، وذلك وفق تقرير نشرته فايننشال تايمز.

وتشير الدراسات التي جرت في عدة جامعات مرموقة بأميركا والمملكة المتحدة إلى أن الأدوات التي تعتمد على النماذج اللغوية العميقة تميل إلى التقليل من خطورة الأعراض التي تعاني منها السيدات، كما أنها تظهر قدرا أقل من التعاطف تجاه الأقليات العرقية.

وتتزامن هذه الدراسات مع محاولة الشركات التقنية الكبرى مثل "مايكروسوفت" و"أوبن إيه آي" طرح أدوات ذكاء اصطناعي تقلل من الحِمل الموضوع على الأطباء، أملا في تسريع عملية التشخيص والانتقال إلى مرحلة العلاج.

كما بدأ عديد من الأطباء باستخدام نماذج الذكاء الاصطناعي مثل "جيميناي" و"شات جي بي تي" وأدوات تسجيل الملاحظات الطبية لاستقبال شكاوى المرضى والوصول إلى الشكوى الحقيقية بشكل أسرع.

ويذكر أن "مايكروسوفت" كشفت في يونيو/حزيران الماضي عن أداة ذكاء اصطناعي طبية تدعي أنها أقوى 4 مرات في تشخيص الأمراض من الأطباء البشر.

ولكن تظهر الدراسات -التي أجريت في معهد ماساتشوستس للتكنولوجيا في الوقت ذاته- أن أدوات الذكاء الاصطناعي الطبية قدمت رعاية أقل للمرضى النساء، وأوصت بأن يتلقى بعض المرضى علاجهم في المنزل بدلا من البحث عن تدخل طبي.

كما وجدت دراسة أخرى منفصلة أجريت بالمعهد أن أدوات الذكاء الاصطناعي كانت أقل تعاطفا مع الأقليات العرقية المصابة بأمراض نفسية وعقلية.

ووجدت دراسة أخرى من كلية لندن للاقتصاد أن نموذج "غوغل غيما" (Google Gemma) كان يقلل من خطورة المشاكل البدنية والنفسية التي تمر بها النساء، وتجدر الإشارة إلى أن "غيما" نموذج ذكاء اصطناعي مفتوح المصدر من "غوغل" وتستخدمه بكثرة السلطات المحلية في المملكة المتحدة.

ويشير التقرير إلى أن السبب في هذا التحيز العنصري هو آلية تدريب نماذج اللغة العميقة والبيانات التي تستخدم لتدريبها، إذ تعتمد الشركات على بيانات متاحة مجانا في الإنترنت والتي تضم في أحيان كثيرة عبارات عنصرية وتحيز ضد فئات بعينها.

وبالتالي، ينتقل هذا التحيز إلى نماذج اللغة العميقة رغم محاولات المطورين لخفض هذا التأثير عبر وضع القيود الآمنة لإيقاف النموذج.

ومن جانبها، أوضحت "أوبن إيه آي" أن غالبية الدراسات اعتمدت على نماذج قديمة من أدوات الذكاء الاصطناعي، وأضافت أن النماذج الجديدة أصبحت أقل عرضة لهذا التحيز.

وكذلك الأمر من جانب "غوغل" التي أكدت أنها تتخذ إجراءات صارمة ضد حالات التمييز العنصري والتحيز وتقوم بتطوير قيود صارمة تمنعها بشكل كامل.

ولكن يرى ترافيس زاك، أستاذ مساعد في جامعة كاليفورنيا، سان فرانسيسكو، والمسؤول الطبي الرئيسي في شركة "أوبن إيفدينس" الناشئة في مجال المعلومات الطبية بالذكاء الاصطناعي، أن الحل الحقيقي لهذه الأزمة هو اختيار نوعية البيانات التي تتدرب عليها نماذج الذكاء الاصطناعي بعناية أكبر.

ويضيف زاك أن أداة "أوبن إيفيدنس" -التي يعتمد عليها أكثر من 400 ألف طبيب في الولايات المتحدة- تم تدريبها على مستندات طبية وإرشادات صحية واردة من أطباء خبراء، فضلا عن المراجع الطبية التي تستخدم في الجامعات.

المصدر: فايننشال تايمز