Warning: Undefined variable $server_full in /home/patribotics3ws/public_html/wp-content/themes/jannah/single.php on line 52
الروبوتات

واجهة الدماغ والحاسوب تعيد القدرة على الكلام لشخص مصاب بـ ALS عبر الذكاء الاصطناعي

كشف باحثون عن نظام جديد قائم على واجهة دماغ-حاسوب (BCI) قادر على تحويل الإشارات العصبية مباشرة إلى كلام منطوق في الزمن الحقيقي، وذلك بعد تجارب ناجحة على رجل فقد قدرته على الكلام بسبب إصابته بمرض التصلب الجانبي الضموري (ALS).

ورغم أن التقنية ما تزال في مراحلها المبكرة، إلا أن العلماء يأملون أن تفتح هذه الدراسة الباب أمام تطوير حلول تواصل متقدمة للأشخاص الذين يعانون من الشلل أو فقدان القدرة على التحدث.

تحليل الإشارات العصبية لاستعادة الصوت

أُجريت الدراسة بقيادة باحثين من جامعة كاليفورنيا – ديفيس، ونُشرت في دورية Nature في 11 يونيو 2025. استخدم الفريق نظامًا يحتوي على 256 قطبًا دقيقًا وُزعت على ثلاث مناطق من الدماغ، خاصة في منطقة التلفيف أمام المركزي السفلي (Ventral Precentral Gyrus)، المسؤولة عن التحكم في العضلات المشاركة في إنتاج الصوت.

وقالت الباحثة مايتريي ويراجكار من مختبر النظم العصبية بجامعة كاليفورنيا:

“نحن لا نقرأ الأفكار، بل نسجل من منطقة تتحكم بعضلات النطق، والنظام يعمل فقط عندما يحاول المشارك التحدث طوعًا.”

تدريب الذكاء الاصطناعي على توليد الكلام

أُجريت التجربة على رجل يبلغ من العمر 45 عامًا، يعاني من ALS، حيث لا يستطيع التحدث بوضوح منذ عدة سنوات، رغم قدرته على إصدار أصوات. تم تدريب نموذج ذكاء اصطناعي عميق على بيانات دماغية ناتجة عن محاولته قراءة جمل مكتوبة بصوت عالٍ.

كما استخدم الباحثون نموذجًا لتقليد الصوت استُند فيه إلى تسجيلات صوتية للمريض قبل تطور حالته، مما مكّن النظام من توليد صوت مطابق تقريبًا لصوته الحقيقي قبل المرض.

ووفقًا للدراسة، عبّر المريض عن شعوره العاطفي الإيجابي عند سماع صوته المُستعاد قائلاً:

“شعرت بالسعادة، وكأنه صوتي الحقيقي.”

التقاط التنغيم والنبرات في الكلام الاصطناعي

لم يكتف النظام بتوليد كلمات مفهومة، بل تمكن أيضًا من محاكاة التنغيم الصوتي الذي يُستخدم في طرح الأسئلة أو التأكيد على كلمات معينة. في تجربة باستخدام الجملة الشهيرة “I never said she stole my money”، تمكن النظام من التقاط تغيّر النشاط العصبي تبعًا للكلمة التي أراد المريض التأكيد عليها.

كما أظهر النظام مرونة في توليد كلمات جديدة غير حقيقية (pseudo-words) وأصوات تعبيرية مثل “آه”، “إييه”، و”هممم”، مما يقرب التجربة أكثر من الكلام الطبيعي.

شاهد ايضا:-

زمن استجابة شبه فوري

حقق النظام زمن استجابة قدره 25 ميلي ثانية فقط بين محاولة النطق وتوليد الصوت، مما يجعله قريبًا جدًا من التحدث الفوري.

ورغم أن دقة الفهم ما تزال محدودة، إذ فهم المستمعون ما يقوله المريض بنسبة 56٪ فقط، إلا أنها قفزة هائلة مقارنة بنسبة 3٪ فقط عند استخدام صوته الطبيعي غير المفهوم.

الخطوات القادمة

قالت ويراجكار:

“نحن لا ندعي أن النظام جاهز للاستخدام اليومي، لكننا قدمنا إثباتًا على الإمكانية الواقعية لهذا النوع من التقنية.”

ويطمح الباحثون إلى تحسين الأداء عبر زيادة عدد الأقطاب وتحسين نماذج الذكاء الاصطناعي. كما يأملون في تعاون مستقبلي مع شركات واجهات الدماغ-الحاسوب (BCI) لبدء تجارب سريرية أوسع.

هل يمكن أن يُستخدم للأشخاص المصابين بأمراض لغوية؟

بينما ركّزت هذه الدراسة على أشخاص فقدوا القدرة على الكلام بسبب شلل عضلي، إلا أن الباحثين يخططون مستقبلًا لاختبار التقنية على حالات مثل الحُبْسة (Aphasia) أو الاضطرابات التطورية في اللغة، حيث يتأثر إنتاج اللغة نفسه داخل الدماغ.

تقنية واجهات الدماغ-الحاسوب تقترب بخطى متسارعة من إعادة القدرة على التواصل الصوتي الطبيعي للأشخاص الذين فقدوه بسبب أمراض عصبية. ورغم الحاجة إلى مزيد من التطوير والاختبارات، فإن هذا الابتكار يُعد إنجازًا واعدًا في مجال أعصاب التواصل والذكاء الاصطناعي الحيوي.

المصدر:- IEEE Spectrum – BCI Restores Real-Time Speech

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى