Facebook rozpoczął używać sztucznej inteligencji (AI) do identyfikacji użytkowników, którzy mogą być narażeni na myśli samobójcze – podaje brytyjski portal bbc.co.uk.

Specjalne algorytmy, oznaczają miejsca w postach użytkowników bądź komentarzach do nich o potencjalnym zagrożeniu dla użytkownika.Obecnie narzędzie jest testowane tylko w Stanach Zjednoczonych, ale oznacza, że po raz pierwszy wykorzystano technologię AI do przeglądania wiadomości w sieci.

Obecnie opracowane algorytmy rozpoznają wzorzec, który określa czy ktoś ma problemy, szukając w dyskusji informacji np. o smutku, czy bólu. Wymiana zdań z przyjaciółmi, w której padają wyrażenia takie jak: "Czy wszystko w porządku?" lub "Martwię się o ciebie" będą specjalnie oznaczane. Tak zidentyfikowany post jest automatycznie wysyłany do szybkiego przeglądu przez odpowiedni zespół.

"Wiemy, że prędkość jest krytyczna, gdy rzeczy są pilne" – powiedziała Vanessa Callison-Burch, product manager Facebooka.

Najnowsza inicjatywa Facebooka powstała po tym, jak 14-letnia dziewczynka w Miami, transmitowała na żywo swoje samobójstwo na platformie w styczniu. Jej celem jest pomoc zagrożonym użytkownikom podczas ich nadawania na żywo, zamiast czekać, aż ich film zostanie odkryty jakiś czas później.

Założyciel Facebooka Mark Zuckerberg ogłosił, że algorytmy mogą posłużyć rówież do identyfikacji terrorystów.

Facebook zapowiedział również nowe sposoby rozwiązywania problemu zachowań samobójczych podczas korzystania z narzędzia do transmitowania wideo na żywo.