niedziela, 4 marca 2012

Sztuczna inteligencja emocjonalna

"Komputery potrafią już rozpoznawać mowę i gesty, tłumaczyć tekst z jednego języka na drugi. Teraz przyszedł czas na analizę ludzkich emocji […]” - czytamy na łamach POLITYKI (nr 44) w artykule Marcina Rotkiewicza pt. „Z sercem na twarzy”. Bohaterem artykuły jest prof. Rosalind Picard, która kieruje Lab Media Affective Computing Group – komórką MIT, która postawiła sobie za cel „budowanie urządzeń, które będą potrafiły rozpoznawać ludzkie emocje”. Czy urządzenia te znajdą kiedyś zastosowanie także w selekcji personelu, np. jako detektory ukrywanych emocji lub mikroekspresji?

Pierwszym urządzeniem tego typu jest tzw. Mood Meter – system komputerowy składający się z komputera i zwyczajnej kamery internetowej, który za pomocą analizy 23 punktów rozmieszczonych na twarzy obserwowanej osoby (głównie wokół oczu, nosa i ust) potrafi rozpoznać sześć stanów umysłu, mających odbicie w mimice twarzy: myślenie, zgadzanie się, skoncentrowanie, zainteresowanie, dezorientację oraz dezaprobatę. Naukowcy mają nadzieję, że urządzenie to będzie pomocne w rozpoznawaniu emocji przez osoby chore na autyzm. Jednocześnie jednak komercyjny odpowiednik tego urządzenia (Affdex) służy do analizy online emocji internautów, "to produkt dla firm pragnących np. sprawdzić jak ludzie reagują na reklamy. Jesli któryś z czytelników chciałby się sam przekonać, jak to działa, a ma komputer z kamerką internetową, może wziąć udział w badaniu skuteczności systemu". W tym celu należy wejść tutaj

Można tam obejrzeć trzy reklamy, podczas których kamera internetowa będzie śledzić nasze reakcje mimiczne. Po zakończeniu reklamy ukaże się nam wykres obrazujący, w których momentach usmiechaliśmy się najbardziej. Aby sprawdzić skuteczność tego systemu obejrzałem tę samą reklamę trzy razy. Za pierwszym razem reagowałem całkowicie spontanicznie i naturalnie. Wykres wydaje się to odzweirciedlać:


Za drugim przesadnie uśmiechałem się co kilka sekund. Wygląda na to, że i te reakcje system wychwycił: 


Za trzecim w ogóle tej reklamy nie oglądałem, bo przełączyłem się na inne okno.


Jak widać, wykres to oddaje. System poinformował mnie, że się nie uśmiechałem. Na pewno jest to duży krok w kierunku sztucznej inteligencji, czy raczej sztucznej inteligencji emocjonalnej. Niestety w  porównaniu z tym, co potrafi człowiek to wciąż niewiele. Na szczęście naukowcy nie składają broni. Na stronie internetowej firmy Affectiva można obejrzeć kolejnych kilka reklam i dowiedziec się nie tylko, w których momentach się uśmiechaliśmy, lecz również kiedy odczuwaliśmy inne emocje, tj. koncentrację, zaskoczenie, zdziwienie/ zakłopotanie i dezaprobatę. Wygląda więc na to, że mimo iż wciąż w powijakach badania nad sztuczną inteligencją emocjonalną idą pełną parą. Być może już niedługo pojawia się pierwsze pomoce dla rekruterów, pozwlaające im lepiej rozpoznać emocje kandydatów, zwłaszcza te, z którymi nie chcialiby się zdradzić podczas rozmowy kwalifikacyjnej.  

Brak komentarzy:

Prześlij komentarz