Безопасность в метро Китая доверят распознающему эмоции искусственному интеллекту
02 ноя, 2019 0 КОМЕНТАРІЇВ 202 Переглядів

Безопасность в метро Китая доверят распознающему эмоции искусственному интеллекту

Безопасность в метро Китая доверят распознающему эмоции искусственному интеллектуРазработанный китайскими специалистами искусственный интеллект способен определять эмоции человека.

Его будут использовать в транспорте для выявления потенциально-опасных для общества людей.

Разработанный китайскими программистами искусственный интеллект способен не только определять настроение человека, но и может с высокой точностью определить его ментальное состояние. Человеческая мимика выдает людей, которые испытывают стресс, расстроены или готовятся совершить преступление.

Основой новой технологии стала нейросеть, которая долгое время обучалась наблюдать за малейшими эмоциональными изменениями человека. Со временем она научилась обнаруживать в толпе асоциальных или же просто опасных людей, после чего передавать информацию о них правоохранителям.

Читайте также: Из деталей конструктора Lego собрали пикап Ford F-100 1957 года (ФОТО)

Сейчас искусственный интеллект устанавливается в местах большого скопления людей - китайские власти внедрили его в системы безопасности аэропортов и станций метро.скачать dle 10.6фильмы бесплатно


Джерело: rueconomics.ru

Из деталей конструктора Lego собрали пикап Ford F-100 1957 года (ФОТО)
В світі / Техно / Фото

Из деталей конструктора Lego собрали пикап Ford

Известный производитель конструкторов - компания Lego, недавно выпустила набор Ford Mustang,...

Искусственный интеллект научили создавать карты для культовой игры Doom
В світі / Техно

Искусственный интеллект научили создавать карты

В рамках проведения исследования по улучшению генерации уровней в видеоиграх разработчики создали...

LinkedIn и eBay вложились в искусственный интеллект
В світі / Наука

LinkedIn и eBay вложились в искусственный

Финансирование направлено на исследования искусственного интеллекта, который не сможет навредить...

Авторизация