5.1.2023, 9:48

EAD: Из-за риска ядерной катастрофы применение искусственного интеллекта пора остановить

При цитировании информации активная гиперссылка на SOLENKA.INFO обязательна

Институт искусственного интеллекта при Стэнфордском университете в Калифорнии провел опрос среди своих исследователей и обнаружил, что более трети из них считают, что использование искусственного интеллекта может привести к "катастрофе ядерного уровня". Несмотря на то, что некоторые оценки были положительными, отмечая рост интереса политиков к ИИ, 36% голосов "против" говорят о чем-то серьезном.

Важно отметить, что эти 36% не против использования ИИ человеком или даже ошибочного его использования. Их протест связан с самостоятельным принятием решений ИИ. В качестве эксперимента они попытались заставить автономную систему искусственного интеллекта ChaosGPT «уничтожить человечество», но безрезультатно. Тем не менее, многие эталоны ИИ достигли точки насыщения, и дальнейшее улучшение практически не происходит. Это приводит к тому, что исследователи должны разрабатывать новые эталоны в ответ на требования общества. Это ускорило индустриальное развитие ИИ, которое теперь опережает его академические исследования.

К примеру, Google попросил своих сотрудников протестировать свой чат-бот с ИИ Bard перед тем, как предложить его пользователям. Однако Bard оказался «патологическим лжецом», давая неправильные советы по подводному плаванию и посадке самолета. Тем не менее, Google все равно запустил Bard в жизнь.

С ростом популярности моделей ИИ, таких как DALL-E 2, Stable Diffusion и ChatGPT, этические злоупотребления становятся «пожеланием заказчика». За 10 лет количество инцидентов и противоречий, связанных с ИИ, увеличилось в 26 раз. К примеру, было создано поддельное видео капитуляции президента Украины Владимира Зеленского в 2022 году и использование технологии мониторинга звонков заключенных тюрьмами США.

Эти примеры показывают, что использование ИИ может иметь серьезные последствия для общества и даже мировой политики. Поэтому необходимо установить строгие этические стандарты и законы, регулирующие использование ИИ, чтобы предотвратить потенциальную катастрофу.

Некоторые эксперты предлагают создать независимый орган, который будет контролировать использование ИИ в различных отраслях и принимать решения о запрете определенных технологий или приложений. Также важно обучать людей основам работы с ИИ и его этике, чтобы они могли осознанно использовать эти технологии и предотвращать их злоупотребление.

В целом, ИИ имеет огромный потенциал для улучшения жизни людей и решения сложных задач. Однако, мы должны быть осторожны и ответственны в его использовании, чтобы избежать негативных последствий.

Кнопка «Наверх»