Reklamodawcy, największe firmy technologiczne, a także służby graniczne używają oprogramowania do śledzenia twarzy do monitorowania nastrojów. Maszyny mogą identyfikować gniew, strach czy smutek i są w tym coraz lepsze. Potwierdza to niedawno opublikowane badanie w Proceedings of National Academy of Sciences. Wynika z niego, że nasze twarze wyrażają uczucia kolorami. O ile ludzie są w stanie poprawnie zidentyfikować uczucia innych osób w 75 proc. przypadków w oparciu o subtelne zmiany koloru przepływu krwi wokół nosa, brwi czy policzków, o tyle w przypadku maszyn wskaźnik poprawnych wskazań sięga 90 proc.

Na rynku dostępne jest np. urządzenie, które pomaga zrozumieć emocje i dopasować mimikę twarzy do uczuć. Przydatne jest zwłaszcza osobom z chorobą Aspergera. Najczęściej jednak technologia znajduje zastosowanie w pracy, która opiera się na kontakcie z klientem. Maszyny na podstawie głosu, szybkości mowy i intonacji są w stanie dokładnie rozpoznać nastrój i emocje rozmówcy. 

Na rynku istnieje już np. oprogramowanie do analizy mowy w call center, które raportuje parametry rozmów telefonicznych, takie jak czas trwania, nastrój mówcy i atmosferę rozmowy. Wykrywa, kiedy może dojść do kłótni, pomaga zapobiegać konfliktom.

Analiza głosu wydobywa różne cechy akustyczne z głosu mówcy w czasie rzeczywistym, tym samym pozwala zrozumieć emocje rozmówcy. Technologia nie analizuje kontekstu językowego, wykrywa natomiast zmiany w zakresie głosu, które wskazują na gniew, niepokój, szczęście lub satysfakcję, niuanse nastroju czy nastawienie do rozmówcy.