De wereld is nog maar net aan het wennen aan de kracht en verfijning van virtuele assistenten van bedrijven als Amazon en google, die onze gesproken woorden met griezelige precisie kunnen decoderen.
Maar in het publieke domein staat er een veel indrukwekkendere en verbijsterende mijlpaal voor de deur, waardoor spraakherkenning bijna kinderspel lijkt: kunstmatige intelligentie (AI) -systemen die onze hersenactiviteit kunnen vertalen naar volledig gevormde tekst, zonder dat er een enkel woord is gesproken.
Het is niet helemaal sciencefiction. Hersenen-machine-interfaces hebben de afgelopen decennia een grote vlucht genomen en zijn geëvolueerd van diermodellen tot menselijke deelnemers.
De nauwkeurigheid liet nog vaak te wensen over in veel modellen leggen onderzoekers van de University of California San Francisco uit in een nieuwe studie.
Om te zien of ze dat konden verbeteren, gebruikte een team onder leiding van neurochirurg Edward Chang van UCSF's Chang Lab een nieuwe methode om het elektrocorticogram te decoderen: het record van elektrische impulsen die optreden tijdens corticale activiteit, opgevangen door elektroden die in de hersenen zijn geïmplanteerd.
In de studie, waarbij vier patiënten met epilepsie de implantaten droegen om aanvallen als gevolg van hun medische toestand te volgen, voerde het UCSF-team een nevenexperiment uit: de deelnemers een aantal vaste zinnen laten voorlezen en herhalen, terwijl de elektroden hun hersenactiviteit registreerden tijdens de oefening.
Deze gegevens werden vervolgens ingevoerd in een neuraal netwerk dat patronen in de hersenactiviteit analyseerde die overeenkomen met bepaalde spraaksignaturen, zoals klinkers, medeklinkers of mondbewegingen, op basis van geluidsopnames van het experiment.
Hierna decodeerde een ander neuraal netwerk deze representaties – verkregen uit herhalingen van 30-50 gesproken zinnen – en gebruikte het om te proberen te voorspellen wat er werd gezegd, puur gebaseerd op de corticale handtekeningen van de woorden.
Op zijn best produceerde het systeem een woordfoutenpercentage (WFP) met één deelnemer van slechts 3 procent bij het vertalen van de hersensignalen in tekst – het beste resultaat in het uitlezen van iemands gedachten wat een AI ooit heeft bereikt, althans in deze strikt gedefinieerde experimentele omstandigheden.
Het systeem kan in het algemeen een nieuwe maatstaf vormen voor op AI gebaseerde decodering van hersenactiviteit, en een die op zijn best vergelijkbaar is met professionele menselijke spraaktranscriptie, die een WFP van 5% heeft, zegt het team.
Natuurlijk hebben professionele transcribenten die te maken hebben met gewone menselijke sprekers te maken met vocabulaires die zich uitstrekken tot tienduizenden woorden. Dit systeem hoefde daarentegen slechts de corticale handtekeningen te leren van ongeveer 250 unieke woorden die in een beperkte reeks korte zinnen werden gebruikt, dus het is niet echt een eerlijke vergelijking.
Hoewel er tal van hindernissen zijn die overwonnen moeten worden, suggereert het team dat het systeem op een dag de basis kan vormen van een spraakprothese voor patiënten die het vermogen hebben verloren om te praten. Als zoiets mogelijk is, kan het een groot probleem zijn – sommige mensen een manier bieden om met de wereld te communiceren – en op manieren die veel verder gaan dan wat de experimenten tot nu toe laten zien.
Natuurlijk zijn de mogelijkheden grenzenloos, maar zouden we deze technologie wel willen toestaan? Waar is je privacy als je gedachten onzichtbaar uitgelezen kunnen worden? En wie krijgt die technologie in handen en met welk doel? Het Amerikaanse leger en ook darpa zetten hier zwaar op in overigens…
En wie zegt dat het niet allang operationeel is in bijvoorbeeld smartphones? Waarom wordt de chip in 180 verschillende divisies gemaakt en heeft niemand echt overzicht over de totale kwantumwerking van de blue light technology chip?
elon musk heeft in zijn presentatie van de neuralink in de zomer van 2019 gezegd dat zijn brein computer interface niet alleen kan lezen, maar ook schrijven naar het brein.
Met de beschikbaarheid van deze technologie wordt het erg lastig om te bepalen of je nog echt eigen gedachten …….