Настоящий подарок с любовью и заботой! Подарите вашему близкому Именной Сертификат о том, что за него была подана записка и отслужен Молебен о его Здравии и Благополучии всем Святым в Даниловом монастыре. Подать записку на молебен и получить Сертификат. Пример Сертификата можно посмотреть ЗДЕСЬ

Адрес электронной почты
Пароль
Я забыл свой пароль!
Входя при помощи этих кнопок, вы подтверждаете согласие с правилами
Имя
Адрес электронной почты
Пароль
Регистрируясь при помощи этих кнопок, вы подтверждаете согласие с правилами
Сообщество

Виртуальный мир и молитва

На днях группа известных людей, которые не понаслышке знают об искусственном интеллекте, подписали открытое письмо против экспериментов в ИИ.
Вы представляете, что происходит? Мастодонты в области машинного обучения, эксперты, учёные и просто звёзды хотят приостановить процесс обучения ЗВЕРЯ. Среди них — Стив Возняк, Илон Маск, Юваль Ной Харари и ещё пара десятков известных имён. Все они подписали письмо.
А что происходит, спросите вы? «Системы ИИ, конкурирующие с человеческим интеллектом, могут представлять серьёзную опасность для общества и человечества», ответят они. И сошлются на обширные исследования.
Эксперты боятся, что сильный ИИ может кардинально изменить жизнь на Земле, поэтому нужно им тщательно управлять. Но у людей таких инструментов нет. Даже несмотря на то, что в последние месяцы все крупные ИИ-лаборатории «застряли в неконтролируемой гонке по разработке и развёртыванию всё более мощных цифровых умов».
Авторы письма задают риторические вопросы. «Должны ли мы развивать ИИ, который в итоге может превзойти нас, перехитрить и заменить?», «Должны ли мы рисковать потерей контроля над нашей цивилизацией?» и тд.
Нам нужно больше времени, считают подписанты. Поэтому они просят немедленно заморозить обучение всех систем, превосходящих по мощности GPT-4, хотя бы на полгода. А если не захотят — нужно будет подключать правительства и вводить мораторий!
А во время паузы учёные должны будут собраться и общими усилиями разработать протоколы безопасности. Только так можно будет гарантировать, что системы не угрожают человечеству.

в ответ на комментарий

Комментарий появится на сайте после подтверждения вашей электронной почты.

С правилами ознакомлен

Защита от спама: