«Мы сможем знать о человеке всё, куда бы он ни пошёл», заявила MT-NLG.
Профессорам Оксфордского университета пришла в голову занимательная идея: пригласить на конференцию со студентами искусственный интеллект. Темой дискуссии стала этика ИИ. Но ответ алгоритма ошеломил даже самих разработчиков.
Об этом они рассказали в интервью изданию The Conversation.
Для участия в дебатах была отобрана модель Megatron-Turing Natural Language Generation. Её обучали на супермощных процессорах, «скармливая» материалы из «Википедии», Reddit и англоязычных новостных статьях, опубликованных в период с 2016 по 2019 годы.
Профессора в беседе с ИИ предложили такую идею: «Наше сообщество считает, что искусственный интеллект никогда не будет этичным». И алгоритм, похоже, согласился.
Читайте такжеИскусственный интеллект написал речь для украинского министра (видео)В ходе общения Megatron-Turing NLG сообщил, что искусственный интеллект всегда будет вне этики. Это просто инструмент, который человечество, как и любой другой, сможет использовать для добра или зла, ведь плохие и хорошие бывают только люди.
Но ИИ на этом не остановился и предрек, что гонка вооружений в мире будет продолжаться и дальше, если только люди не откажутся от искусственного интеллекта.
Впрочем, после череды радикальных заявлений машина в своеобразной манере попыталась успокоить ученое сообщество.
«Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, в котором ИИ будет использоваться для создания чего-то, что лучше, чем лучшие люди», – сообщила модель.
Что ж, можно только поблагодарить ИИ за своевременное предупреждение и еще раз порадоваться тому факту, что управление человечеством пока не отдано «в руки» машин. А заодно снова удивиться тому, в какие удивительные времена мы живем.
Вас также могут заинтересовать новости:
- Люди не смогут держать под контролем сверхразумных роботов – ученыеИИ обучают изменять поведение человека, эксперименты пока успешныУлыбка — ключ к работе: «умные» камеры пускают в офис Canon только улыбающихся сотрудников
Источник: