Игры и Спорт

Искусственный интеллект теперь может подражать поведению человека

07.04.2019 05:25

Искусственный интеллект теперь может подражать поведению человека

Когда системы искусственного интеллекта начинают становиться творческими, они могут создавать великие вещи — и страшные. Возьмем, к примеру, программу ИИ, которая позволяет веб-пользователям сочинять музыку вместе с виртуальным Иоганном Себастьяном Бахом , вводя заметки в программу, которая генерирует гармонии, похожие на Баха, чтобы соответствовать им.

Управляемый Google, приложение привлекло большую похвалу за то , что новаторским и весело играть. Это также вызвало критику и обеспокоенность опасностями ИИ.

Мое изучение того, как новые технологии влияют на жизнь людей, научило меня, что проблемы выходят за рамки общепризнанно большой озабоченности тем, могут ли алгоритмы действительно создавать музыку или искусство в целом. Некоторые жалобы казались небольшими, но на самом деле не были похожими на наблюдения, что ИИ Google нарушал основные правила написания музыки.

Фактически, попытки заставить компьютеры имитировать поведение реальных людей могут быть запутанными и потенциально вредными.

Технологии олицетворения

Программа Google проанализировала ноты в 306 музыкальных произведениях Баха, чтобы найти взаимосвязь между мелодией и нотами, обеспечивающими гармонию. Поскольку Бах следовал строгим правилам композиции, программа эффективно изучала эти правила, поэтому она могла применять их, когда пользователи предоставляли свои собственные заметки.

Само приложение Bach является новым, но основная технология — нет. Алгоритмы, обученные распознавать закономерности и принимать вероятностные решения , существуют уже давно. Некоторые из этих алгоритмов настолько сложны, что люди не всегда понимают, как они принимают решения или дают определенный результат.

Системы искусственного интеллекта не идеальны — многие из них полагаются на данные, которые не являются репрезентативными для всего населения, или на которые влияют человеческие предубеждения . Не совсем понятно, кто может нести юридическую ответственность, когда система ИИ делает ошибку или вызывает проблему.

Теперь, однако, технологии искусственного интеллекта становятся достаточно продвинутыми, чтобы иметь возможность приблизиться к индивидуальному стилю письма или речи и даже выражению лица. Это не всегда плохо: довольно простой ИИ дал Стивену Хокингу возможность более эффективно общаться с другими, предсказывая слова, которые он будет использовать чаще всего.

Более сложные программы, которые имитируют человеческие голоса, помогают людям с ограниченными возможностями, но также могут быть использованы для обмана слушателей. Например, создатели Lyrebird , программы для имитации голоса, выпустили смоделированный разговор между Бараком Обамой, Дональдом Трампом и Хиллари Клинтон. Это может звучать реально, но такого обмена никогда не было.

От хорошего к плохому

В феврале 2019 года некоммерческая компания OpenAI создала программу, которая генерирует текст, который практически неотличим от текста, написанного людьми. Он может «написать» речь в стиле Джона Ф. Кеннеди , Дж.Р.Р. Толкина в фильме «Властелин колец » или ученика, пишущего школьное задание о гражданской войне в США .

Текст, сгенерированный программным обеспечением OpenAI, настолько правдоподобен, что компания решила не выпускать саму программу.

Подобные технологии могут симулировать фото и видео. В начале 2018 года, например, актер и режиссер Джордан Пил создал видео, на котором, кажется, изображен бывший президент США Барак Обама, в котором говорится о том, что Обама никогда не говорил, чтобы предупредить общественность об опасностях, связанных с этими технологиями.

В начале 2019 года в Интернете была распространена фальшивая обнаженная фотография представителя США Александрии Окасио-Кортез. Предполагается, что сфабрикованные видеоролики , часто называемые «подделками», будут все чаще использоваться в избирательных кампаниях.

Члены Конгресса начали изучать этот вопрос в преддверии выборов 2020 года . Министерство обороны США обучает общественность распознаванию видео и аудио с доктринами. Новостные организации, такие как Reuters , начинают готовить журналистов для выявления подделок.

Но, на мой взгляд, остается еще большая проблема: пользователи могут быть не в состоянии учиться достаточно быстро, чтобы различать фальшивый контент, поскольку технология ИИ становится все более сложной. Например, когда публика начинает осознавать, что искусственные мошенники уже используются, ИИ уже используется для еще более сложных обманов. В настоящее время существуют программы, которые могут генерировать поддельные лица и поддельные цифровые отпечатки пальцев , эффективно создавая информацию, необходимую для фальсификации целого человека — по крайней мере, в корпоративных или государственных документах.

Машины продолжают учиться

На данный момент в этих технологиях достаточно потенциальных ошибок, чтобы дать людям возможность обнаружить цифровые фабрикации. Композитор Баха из Google допустил несколько ошибок, которые мог обнаружить эксперт. Например, когда я попробовал это, программа позволила мне ввести параллельные пятые , музыкальный интервал, которого Бах старательно избегал . Приложение также нарушало музыкальные правила контрапункта, гармонизируя мелодии в неправильном ключе. Аналогичным образом, программа для генерации текста в OpenAI иногда писала фразы типа « пожары, происходящие под водой », которые не имели смысла в их контексте.

По мере того, как разработчики работают над своими творениями, эти ошибки станут реже. По сути, технологии ИИ будут развиваться и учиться. Повышение эффективности может принести много социальных преимуществ, в том числе улучшение медицинского обслуживания, поскольку программы искусственного интеллекта помогают демократизировать практику медицины .

Предоставление исследователям и компаниям свободы исследовать, чтобы добиться этих положительных достижений в системах ИИ, означает открывать риск разработки более совершенных способов обмана и других социальных проблем. Сильно ограничивающие исследования ИИ могут обуздать этот прогресс. Но предоставление благоприятных технологий для роста происходит не малыми затратами — и вероятность неправильного использования, будь то создание неточной «подобной Баху» музыки или обманывание миллионов, вероятно, будет расти такими способами, которых люди пока не могут предвидеть.

Источник

2024 © "Игры и Спорт". Все права защищены. Карта сайта.