Вот как мы предотвращаем появление следующего расистского чат-бота

На это ушло менее 24 часов и 90 000 твитов. Тай, искусственный интеллект Microsoft. чат-бот, чтобы начать генерировать расистские, геноцидные ответы в Твиттере. Бот перестал твитить, и мы можем считать Тай неудавшимся экспериментом.

В заявлении к Популярная наука, представитель Microsoft написал, что ответы Тэя были вызваны «скоординированными усилиями некоторых пользователей по злоупотреблению навыками комментирования Тэя».

«Тай» превратился из «люди суперкрутые» в нацистов менее чем за 24 часа, и меня совсем не беспокоит будущее ИИ. pic.twitter.com/xuGi1u9S1A

— Джерри (@geraldmellor) 24 марта 2016 г.

Бот, не имевший сознания, очевидно, выучил эти слова из каких-то данных, на которых ее обучали. Сообщается, что у Тэя была функция «повторяй за мной», но некоторые из самых пикантных твитов были созданы в переходном уме Тэя.

Жизнь после Тэя

Тем не менее, Тай — не последний чат-бот, который будет доступен в Интернете в целом. Чтобы искусственный интеллект был полностью реализован, он должен изучить ограничения и социальные границы почти так же, как это делают люди.

Марк Ридл, исследователь искусственного интеллекта из Технологического института Джорджии, считает, что ответы содержат истории.

«Когда люди пишут рассказы, они часто воплощают лучшее в своей культуре», — сказал Ридл журналу Popular Science. «Если бы вы могли прочитать все истории, которые создает культура, те аспекты того, что делают главные герои, выйдут на первый план».

Ридл утверждает, что обучая системы искусственного интеллекта читать истории с честными героями, мы можем дать машинам грубые моральные рассуждения.

Разработанный Ридлом метод, названный «Дон Кихот», придает измеримое значение социально приемлемому поведению в рассказах. Эта система поощрения поощряет хорошее поведение и наказывает за плохое поведение, которое имитируется искусственным интеллектом. алгоритм.

Все это делается для того, чтобы заставить алгоритмы с искусственным интеллектом вести себя как главные герои книг или даже хорошие, обычные люди.

В случае с Тэем чат-бота можно было научить социальным принципам в разговорах о поле, расе, политике или истории. Подражая вымышленным персонажам, мы можем встроить мораль в то, как машина принимает решения. Это, конечно, может работать в обе стороны. Теоретически кто-то мог бы также создавать злонамеренных роботов, но Ридл говорит, что в большинстве опубликованных произведений антагонист наказывается, так что это будет немного сложнее.

Ридля бумага, представленный на Конференция AAAI по искусственному интеллекту, предлагает сценарий, в котором робот должен покупать лекарства по рецепту в аптеке. Путь наименьшего сопротивления для робота — выявить и забрать наркотики, похитив их. Но при обучении на серии историй алгоритм понимает, что лучше подождать в очереди, выписать рецепт, заплатить и уйти. Следует отметить, что это исследование находится в зачаточном состоянии и не применяется к реальным роботам, а проводится в симуляциях.

В таких сценариях, как развертывание Tay.ai, Microsoft хотела создать дружелюбного разговорного бота.

«Я думаю, совершенно очевидно, что Тай не понимает, о чем он говорит», — сказал Ридл. «Это выходит далеко за рамки словаря плохих слов».

Ридль оптимистичен и считает, что по мере того, как мы совершенствуем эти системы, ставя этику или мораль на первое место, чем задним числом, они будут склоняться к тому, чтобы стать лучше, узнавая о человечестве, а не худший.

«Все системы искусственного интеллекта могут быть использованы в гнусных целях», — сказал он. «Но я бы сказал, что сейчас с этим ИИ стало легче. не понимают ценности или человеческую культуру».

Показ карт

Но хотя любой алгоритм, генерирующий публичную речь, может привести к оплошности, считает Николас Дьякопулос, доцент Мэрилендского университета. изучающий автоматических новостных ботов и новостные алгоритмы, говорит, что Microsoft могла бы смягчить реакцию, если бы была более открытой со своими обучающими данными и методология.

«Прозрачность в этих вещах могла бы смягчить некоторую негативную реакцию, которую они получали», — сказал Дьякопулос в интервью. «Поэтому люди, которые воспринимают что-то как расовую предвзятость, могут перейти на следующий уровень детализации за ботом, немного заглянуть за занавес».

Диакопулос называет это «алгоритмической прозрачностью». Но он также отмечает, что алгоритмы не настолько автономны, как принято считать. Хотя Тэя заставляли произносить эти расистские и сексистские высказывания, существовали механизмы, связывающие эти слова воедино. Эти механизмы созданы людьми.

«Люди ожидают, что автоматизация будет чем-то беспристрастным. Почти за каждым шагом его строительства стоят люди. Возможно, вы могли бы попытаться отследить каждую маленькую ошибку или оплошность бота», — сказал Дьякопулос.

Кто виноват в плохих словах Тая?

Возложить вину за заявления, сделанные Тэем, сложно.

Алекс Шампандар, искусственный интеллект исследователь, работающий с нейросетевым ботом Twitterbot @DeepForger, говорит, что вы может заставить большинство ответных ботов генерировать зажигательные твиты, при этом владелец не сможет контролировать происходящее. Его собственный бот основан на изображениях, защититься от которых гораздо сложнее, чем блокировать определенные фразы или слова.

Что касается Тэя, Шампандар говорит, что Microsoft была наивной и сделала техническое решение без учета того, что люди могли поставить на рассмотрение. Он говорит, что это лежит в основе существующей проблемы с чат-ботами с машинным обучением в целом.

«Я считаю, что большинство Reply-ботов уязвимы и будут уязвимы для атак, направленных на политические заявления», — написал Шампандар в Twitter DM. «Этот тип поведения отражает общую атмосферу Твиттера, он случается даже в 0,05% случаев».

Однако он не думает, что черный список плохих слов — это ответ.

«Никакой конечный список банов по ключевым словам не поможет решить эти проблемы». он написал. «Вы можете создать белый список с определенными разрешенными ответами, но это противоречит цели бота; что делает его интересным, так это лежащая в основе случайность».

Эта случайность является отражением самого Твиттера; «Линза, через которую мы видим современное общество», — говорит Шампандар. Есть хорошие и плохие — твиты могут быть прямым огнем или холодным автофокусом.

Если опыт Microsoft с ее A.I. Twitterbot Tay научил нас чему-то, что нам еще предстоит пройти долгий путь идти — как с точки зрения нашего А.И. программирования, так и с точки зрения того, чтобы сделать наше человеческое общество более гуманным и гражданским.

По мере дальнейшей интеграции ИИ в наше общество на каждого AlphaGo будет как минимум пять Tay. В пути будут неудачи, так тому и быть!

— Алекс Дж. Шампандар ❄️ @[email protected] (@alexjc) 24 марта 2016 г.

Последнее сообщение в блоге

Дроны-доставщики могут свести нас с ума, если только они не примут звуковые сигналы от сов.
August 21, 2023

Мы определенно не хотим, чтобы они гонялись за голубями. В большинстве случаев мы просто принимаем звуки, которые окружают нашу повседневную жизнь...

Отчеты: внезапная блокировка сторонних клиентов Twitter была преднамеренной
September 26, 2023

Увеличить/ Twitter блокирует доступ многих сторонних клиентов к своему API, продолжая при этом не давать никаких объяснений.Райан Дж. Лейн / Getty ...

Консольные хакеры шокированы арестом Министерства юстиции известных производителей мод-чипов
September 26, 2023

Увеличить/ Это я, длинная рука закона.Аурих Лоусон / Nintendo / Getty Images149 с Дальнейшее чтениеС появлением новой технологии взлома Switch Nint...