Коллеги, ChatGPT-4 существует всего 2 недели, но уже успел натворить много всего.
Вот краткий экскурс (с ссылками) по всему самому хайповому, что успела натворить нейросеть:
— Написала (Неверный потребительский ключ в конфигурации) бизнес-план с бюджетом 100 долларов;
— Создала (Неверный потребительский ключ в конфигурации) видеоигру с нуля;
— Продумала план-побег (Неверный потребительский ключ в конфигурации), чтобы интегрироваться в машину;
— Перехитрила Илона Маска и почти захватила (Неверный потребительский ключ в конфигурации) Twitter;
— Создала (Неверный потребительский ключ в конфигурации) новую эмоцию;
— С нуля написала (Неверный потребительский ключ в конфигурации) код для расширения Google Chrome;
— Разработала (Неверный потребительский ключ в конфигурации) Flappy Bird мене чем за минуту;
— Придумала (Неверный потребительский ключ в конфигурации) 20 новых бизнесов;
— На изи запилила (Неверный потребительский ключ в конфигурации) новые пресеты фильтров Lightroom;
— Обошла (Неверный потребительский ключ в конфигурации) CAPTCHA;
— Изобрела (Неверный потребительский ключ в конфигурации) новый язык;
— За 5 минут создала (Неверный потребительский ключ в конфигурации) IOS-приложение;
— Не стесняясь рассказала (Неверный потребительский ключ в конфигурации) профессии, которые она заменит;
— Придумала новый цвет (Неверный потребительский ключ в конфигурации) и описала его.
Напомню, что все это произошло за две(!!) недели. И это только начало, коллеги.
Илон Маск, Стив Возняк, Йошуа Бенджио, Стюарт Рассел, Юваль Ной Харари, а также более 1000 других экспертов в области искусственного интеллекта и представителей научного сообщества призывают к введению моратория на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4.
В открытом письме, опубликованном некоммерческим институтом Future of Life, говорится о потенциальных рисках для человечества от дальнейшего неконтролируемого развития систем искусственного интеллекта и предлагается «поставить на паузу» его обучение.
«Мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть контролируемой и обязательной для всех ключевых участников. Если такая приостановка не может быть быстро согласована, правительства должны вмешаться и ввести мораторий».
В письме также сообщается, что лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для дальнейшего проектирования и разработки ИИ, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Это ни в коем случае не означает остановку развития искусственного интеллекта в целом, а лишь является необходимым шагом назад от опасной гонки к все более мощным и непредсказуемым моделям ИИ, работающим по принципу черного ящика.
Примечательно, что Сэм Альтман, исполнительный директор OpenAI, не подписал это письмо. А представители Future of Life столкнулись и с волной критики в свой адрес – их обвинили в продвижении «хайпа вокруг ИИ», так как письмо сильно преувеличивает текущее состояние и потенциальные возможности технологии.
Ознакомиться с текстом письма и подписать его можно https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Последнее редактирование: 1 год 7 мес. назад пользователем Iceberg.