«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Просмотры: 704     Комментарии: 0
«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4
«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI.

В открытом письме они предупредили о потенциальных рисках для общества.

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Геннадий Самохвалов
Люди: Возняк Стив,Маск Илон,Альтман Сэм,
Темы: ChatGPT,OpenAl,нейросеть,
Регион: США,

Другие новости по теме:

Йеменские хуситы заявили о второй атаке на американский авианосец "Дуайт Эйзенхауэр" в Красном море
США хотят установить «лимит» беженцев на границе
Эксперты назвали санкции, которые могут остановить Путина
Ведущая в прямом эфире проглотила муху
Запад и Китай имеют план прекращения войны в Украине, но сейчас переговоры по нему зашли в тупик,- Арестович
Власти Израиля опровергли заявление Байдена о прекращении войны и вывод войск из сектора Газа
Фонд Джорджа Клуни намерен добиваться ареста российских пропагандистов
Опубликованная речь сотрудника Госдепа США Миллера оказалась фейком
Трамп-младший и Карлсон заявили о планах захвата украинских сельхозугодий иностранными инвесторами
Международный бизнес семьи Кастро
Китай продал рекордное количество казначейских облигаций США в первом квартале