Osoby niepełnosprawne będą mogły sterować sprzętem komputerowym i komunikować się ze światem

Osoby niepełnosprawne będą mogły sterować sprzętem komputerowym i komunikować się ze światem

Interfejsy mózg–komputer to oprogramowania, które pozwalają przekształcić sygnał mózgowy na sygnał cyfrowy. Zespół bioinżynierów na Politechnice Opolskiej do sterowania komputerem wykorzystał badanie EEG, gdzie każde zakłócenie widoczne w badaniu przekształcane jest na daną akcję.

Stworzona w ten sposób aplikacja może służyć jako komunikator dla niepełnosprawnych nie tylko manualnie, lecz także intelektualnie. W przyszłości mogłaby pomóc osobom sparaliżowanym, z zaburzeniami pamięci czy mowy.

– Wykorzystujemy interfejs mózg–komputer firmy Emotiv do sterowania robotem mobilnym albo aplikacją komputerową. Do sterowania wykorzystujemy badania EEG, które wykonuje urządzenie, następnie wykorzystujemy zakłócenia, które wywołuje na przykład mimika twarzy – w momencie, gdy mrugniemy powieką, zaciśniemy zęby lub się uśmiechniemy, na badaniu EEG widzimy zakłócenie, które jest na tyle widoczne na badaniu, że algorytm przetwarza je na daną akcję – mówi Natalia Browarska, przewodnicząca Koła Naukowego Bioinżynierów na Politechnice Opolskiej.

Interfejsy mózg–komputer zamieniają sygnał mózgowy na cyfrowy, który wysyłany do różnych urządzeń pozwala sterować sprzętem komputerowym czy elektronicznym. Choć taka technologia może służyć zdrowym osobom w codziennym życiu, pomaga się komunikować ze światem ludziom chorym, niepełnosprawnym, po udarach czy wypadkach.

– Stworzyłam aplikację, która służyła jako komunikator dla niepełnosprawnej dziewczynki chorej na zespół Dandy’ego-Walkera, niesprawnej manualnie i intelektualnie. Wykorzystywała pismo obrazkowe i piktogramy. Dziewczynka wykorzystywała żyroskop wbudowany w interfejsie mózg–komputer, aby wodzić kursorem myszy, a następnie zaciśnięciem zębów wywoływała naciśnięcie lewego przycisku myszy w celu wybrania odpowiedniego symbolu – tłumaczy Natalia Browarska.

Choć wedle zamierzeń projekt miał być uniwersalnym komunikatorem dla niepełnosprawnych, musi być jednak dopasowany indywidualnie dla chorych, którzy mają różne niepełnosprawności lub posługują się innymi symbolami. Lepiej mógłby się natomiast sprawdzić u osób po udarach czy wypadkach, które potrafiły się komunikować, ale ze względu na zdarzenia losowe tę umiejętność straciły.

– Interfejs mózg–komputer opiera się na badaniu EEG. Ma 16 sensorów, które nasączone są solą fizjologiczną w celu zapewnienia odpowiedniej przewodności, sygnał zbierany jest do komputera poprzez moduł Bluetooth. Zmiany w sygnale EEG wywoływane mimiką twarzy są w stanie wywołać procesy sterowania. Kiedy korzystamy z robota mobilnego, to np. kiedy się uśmiechniemy, robot pojedzie do przodu, po zaciśnięciu zębów stanie, a po mrugnięciu lewym okiem skręci w lewo – wyjaśnia autorka aplikacji.

Interfejs mózg–komputer może być również wykorzystany w celach rozrywkowych. Obecnie nad taką technologią pracuje Facebook, który chce wprowadzić możliwość komentowania postów za pomocą myśli użytkowników. Rozwiązanie może się także sprawdzić w domu jako część smart home.

– Z kołem naukowym planujemy wziąć udział w konkursie Imagine Cup, organizowanym przez Microsoft. Chcemy stworzyć grę edukacyjną związaną z inżynierią biomedyczną –zapowiada Browarska.
Newseria
Data publikacji: 07.07.2017 r.

Udostępnij

Zachęcamy do zapisania się do Newslettera

Przeczytaj również