Роботи навчилися сумніватися в наказах людини

Дослідники з Університету Тафтса розробили систему взаємодії робота з людиною, яка дозволяє пристрою відмовитися виконувати деякі накази, якщо є достатні підстави для такої поведінки. Доповідь про виконану роботу була представлена на конференції AI-HRI, коротко зміст переказує


Перш, ніж виконувати отриманий від людини наказ, робот перевіряє кілька умов, до яких входить наявність необхідних для виконання навичок, фізична можливість виконання наказу взагалі і з урахуванням поточних обставин, а також перевірка субординації - можливо, робот взагалі не зобов'язаний виконувати наказ, що надійшов саме від цієї людини.


Якщо з якихось причин робот не може виконати наказ, він повідомляє про це людину, пояснюючи причини, через які вона відмовляється діяти. При цьому після уточнення даних про навколишнє середовище робот може «передумати» і виконати поставлене завдання.

Для демонстрації прикладу такої поведінки дослідники записали кілька відеороликів, в яких робот Nao демонструє подібну поведінку. У всіх трьох сценаріях робот спілкується з людиною за допомогою усного мовлення і відмовляється виконувати накази з різних причин. У двох прикладах з трьох робот, отримавши уточнюючі дані від людини, в результаті виконує наказ. У третьому випадку робот відмовляється виконати поставлене завдання, оскільки людина, яка озвучила наказ, не володіє необхідними повноваженнями.

Як зазначає IEEE Spectrum, мова йде не про «повстання машин», а скоріше про перевірку необхідних умов для виконання завдання. Принципово нової ідеї в цьому немає - подібні технології, наприклад, застосовуються для розмежування доступу і при передачі даних в обчислювальних системах.

Раніше фахівці з Технологічного інституту Джорджії навчили робота спілкуватися з людьми на різних рівнях соціальної активності - при високому рівні активності робот може перебити людину, в той час як при низькому рівні соціальної активності робот більше слухає співрозмовника.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND