Studenci z MIT stworzyli prototypowe urządzenie drukowane w 3D o nazwie AlterEgo, które potrafi rozpoznać słowa, które wypowiadasz podczas cichej rozmowy z samym sobą i zinterpretować je jako komendy.
Interfejs komputerowy opracowany przez naukowców z MIT może transkrybować słowa, które użytkownik werbalizuje wewnętrznie, ale nie wypowiada na głos.
Nazwany AlterEgo, prototyp składa się z wydrukowanego w 3D urządzenia do noszenia i związanego z nim systemu komputerowego. Elektrody w urządzeniu odbierają sygnały nerwowo-mięśniowe w szczęce i twarzy, które są wywoływane przez wewnętrzne werbalizacje – wypowiadanie słów “w głowie” – ale są niewykrywalne dla ludzkiego oka.
Sygnały te są następnie przekazywane do systemu uczenia maszynowego, który został przeszkolony do korelowania poszczególnych sygnałów z poszczególnymi słowami.
Urządzenie zawiera również parę słuchawek z przewodnictwem kostnym, które przenoszą wibracje przez kości twarzy do ucha wewnętrznego. Ponieważ słuchawki nie blokują kanału słuchowego, umożliwiają systemowi przekazywanie informacji użytkownikowi bez przerywania rozmowy lub w jakikolwiek inny sposób zakłócania jego słuchu.
AlterEgo jest w istocie kompletnym, cichym systemem komputerowym, który pozwala użytkownikowi w sposób niezauważalny stawiać i otrzymywać odpowiedzi na trudne problemy obliczeniowe.
W jednym z eksperymentów badacze używali systemu do cichego zgłaszania ruchów przeciwnika w grze w szachy – i równie cichego otrzymywania odpowiedzi zalecanych przez komputer. To jest oszustwo!
AlterEgo Wearable bazuje na subtelnych sygnałach
“Motywacją do stworzenia tego systemu było zbudowanie urządzenia IA – zwiększającego inteligencję” – mówi Arnav Kapur, student MIT Media Lab, który kierował pracami nad nowym systemem.
“Nasz pomysł był następujący: Czy możemy mieć platformę obliczeniową, która jest bardziej wewnętrzna, która łączy człowieka i maszynę w pewien sposób i która czuje się jak wewnętrzne przedłużenie naszego własnego poznania?”
Używając prototypu wearable, zespół przeprowadził badanie użyteczności, w którym 10 uczestników spędziło około 15 minut każdy dostosowując aplikację arytmetyczną do własnej neurofizjologii, a następnie spędziło kolejne 90 minut używając jej do wykonywania obliczeń. W tym badaniu, system miał średnią dokładność transkrypcji około 92 procent.
Jednak, jak twierdzi Kapur, wydajność systemu powinna się poprawić dzięki większej ilości danych treningowych, które można by zebrać podczas jego zwykłego użytkowania. Szacuje on, że lepiej wytrenowany system, którego używa do demonstracji, ma wskaźnik dokładności wyższy niż ten odnotowany w badaniu użyteczności.
W trwających pracach naukowcy zbierają mnóstwo danych na temat bardziej skomplikowanych konwersacji. Celem jest zbudowanie aplikacji o znacznie bardziej rozbudowanych słownikach.
“Jesteśmy w trakcie zbierania danych, a wyniki wyglądają nieźle” – mówi Kapur. “Myślę, że pewnego dnia osiągniemy pełną konwersację”.
Żródło: https://all3dp.com