A Stanford Egyetem kutatócsoportja egy olyan agy-számítógép interfészt fejlesztett, amely képes rögzíteni és dekódolni az emberek belső monológjait, anélkül, hogy az adott személy megpróbálna valójában is beszélni – írja a Live Science a Cell folyóiratban megjelent tanulmányra hivatkozva. Fejlesztői szerint az új technológia elsősorban a súlyos beszédkárosodással élők kommunikációját támogathatja – írja a qubit.hu portál.
A Stanford közleménye szerint a kutatók négy olyan páciens segítségével tesztelték fejlesztésüket, akik sztrók (stroke), vagy az izomfunkciókat szabályozó idegsejteket érintő amiotrófiás laterális szklerózis (ALS) miatt váltak részben vagy egészben beszédképtelenné. A kutatócsoport mesterséges intelligencia (AI) algoritmusokat trenírozott arra, hogy a résztvevők agyában lévő elektródák által felvett elektromos jelekből dekódolják a belső monológok, illetve a szándékos beszédkísérletek aktivitási mintázatait.
Az AI-al turbózott agy-számítógép interfész akár 74 százalékos pontossággal fejtette vissza azokat a mondatokat, amelyeket a résztvevők gondolatban összeállítottak.
A belső, illetve a megkísérelt beszéd motoros kéregben észlelt aktivitási mintázatai ugyan jelentős hasonlóságot mutattak egymással, ám az előbbi minden esetben gyengébb aktivitást mutatott.
Az eredmények felvetik ugyan a külvilágra nem tartozó, nem közlésre szánt magángondolatok dekódolásának etikai dilemmáját, de a kutatók szerint a külvilágnak szánt és a belső monológok mintázatai közötti különbségek alapján nem jelenthet problémát, hogy a következő generációs agy-számítógép interfészek figyelmen kívül hagyják a senki másra nem tartozó belső beszédet.



A FŐSZAKÁCS AJÁNLATA
ÁLLÁSHIRDETÉSEK
Helységnévtár




