В США создан робот, способный лгать
В США создан робот, способный лгать
В Технологическом институте Джорджии (США) проведён первый в своём роде эксперимент с участием робота, который способен обмануть противника и даже (если нужно) партнёра, пишет "Компьюлента".

"Мы разработали алгоритмы, которые позволяют роботу вводить в заблуждение человека или машину, обладающую искусственным интеллектом, а также научили его выбирать лучшую стратегию в разных обстоятельствах", - уточняет руководитель научной группы Рональд Аркин.
Это умение не обязательно должно пригодиться. Робот, скорее всего, не будет наделяться им для выполнения каких-то специальных задач. "И всё же это важный инструмент в его интерактивном арсенале, потому что робот, который понимает необходимость хитрости, имеет преимущество с точки зрения конечного результата по сравнению с роботами, не имеющими представления об этом", - подчёркивает соавтор исследования Алан Вагнер.
В будущем подобные машины могут оказаться полезными в самых разных сферах. Например, при спасении паникующей жертвы. Но в данном случае учёные сконцентрировались на том, чтобы научить подопечного прятаться от противника. Во-первых, робот должен распознавать ситуации, в которых имело бы смысл применить хитрость. Ситуация должна удовлетворять двум главным условиям: конфликт между роботами и наличие выгоды для одного из них, если он будет хитрить.
Учёные установили на полу маркеры, которые вели к трём местам, где можно было прятаться. Когда робот понимал, что возникли обстоятельства, при которых надо обмануть соперника, он сбивал маркер, ведущий в одно убежище, а сам прятался в другом. Только в пяти случаях из двадцати он не смог сообразить, как обмануть соперника.
Создание машин, понимающих ценность лжи в определённых условиях - весьма смелый вызов человеческой цивилизации, который она опять делает сама себе. Безусловно, разработка подобных роботов требует дискуссии об этической стороне дела, отмечает издание.Источник: Компьюлента
Опубликовано 14 сентября 2010 Комментариев 0 | Прочтений 3846

Ещё по теме...
Добавить комментарий