Команда специалистов исследовательской лаборатории армии США занимается подготовкой первых специалистов-аналитиков, которые способны обнаружить, понять и исправить сбои в процессах функционирования машинного обучения и нейросетей. На базе такого анализа эксперты из военной исследовательской лаборатории и Техасского университета в Остине разработают новый алгоритм, посредством которого роботы смогут воспринимать критику, если что-то идет не так, и создавать отчеты о «трудностях жизни».
Планируется, что первые практические результаты будут получены уже через 2 года, когда сухопутные войска США будут производить боевые задачи с роботами, которые обучены по образу и подобию человека и способны принимать самостоятельные решения.
Главное опасение экспертов в области безопасности связано с объективной критикой роботов. Пока никто не может предсказать, как боевой робот будет функционировать в составе подразделений, если во время серьезного столкновения с противником оператор начнет указывать устройству на ошибки на традиционном армейском жаргоне.
Islam-today
Социальные комментарии Cackle