Sztuczna inteligencja także w metrze. Pomoże wykryć osoby w kryzysie

Montreal rozpoczął pilotażowy projekt, w ramach którego sztuczna inteligencja ma wykrywać na stacjach metra osoby będące w sytuacji kryzysowej. System ma na celu zapobieganie tragediom poprzez wczesne rozpoznawanie potencjalnych samobójców.

Działanie oprogramowania opiera się na około 2 tysiącach kamer rozmieszczonych na stacjach metra w Montrealu. Sztuczna inteligencja analizuje rejestrowany obraz w poszukiwaniu osób, które mogą znajdować się w głębokim stresie lub rozważać podjęcie próby samobójczej.

Mamy wskazówki, ale oczywiście człowiek nie jest w stanie monitorować setek ekranów przez cały dzień, by identyfikować takie zachowania – tłumaczy profesor Brian Mishara, światowej sławy specjalista w dziedzinie prewencji samobójstw.

Jak to ma działać?

AI nie używa algorytmów rozpoznawania twarzy, lecz skupia się na obserwacji zachowań. Do kluczowych sygnałów ostrzegawczych zalicza się m.in.: długie wpatrywanie się w głąb tunelu, częste podchodzenie do krawędzi peronu czy pozwalanie na odjazd wielu pociągom bez wsiadania.

To mogą być wskazówki zapowiadające próbę samobójczą – mówi profesor Wassim Bouachir z Uniwersytetu TÉLUQ.

Projekt jest obecnie w fazie pilotażowej, jednak jego twórcy mają ambitne plany na przyszłość. Ostateczny algorytm dla AI ma umożliwić np. uprzedzanie ochrony na stacjach metra lub nawet alarmowanie maszynistów o konieczności zatrzymania pociągu przed wjazdem na stację. Bouachir przewiduje, że po dwóch latach testów system będzie gotowy do wdrożenia.

Sprawdzono, czy AI przeprowadziłaby atak nuklearny. Szokujące wyniki badań
Badania opublikowane na platformie arXiv wskazują, że sztuczna inteligencja nie wykazuje oporów przed zastosowaniem ataku nuklearnego w symulowanych konfliktach zbrojnych. To odkrycie nabiera szczególnego znaczenia w świetle informacji o testowaniu przez amerykańskie wojsko wykorzystania chatbotów w symulacjach wojennych oraz współpracy Open AI z Departamentem Obrony USA.

Źródło: RMF FM/PAP

Zobacz także