Поддержать команду Зеркала
Беларусы на войне
  1. Политика Трампа может напоминать хаос, но это не так: его тактику еще десять лет назад изучил американский журналист. Вот что он писал
  2. Зеленский высказался по ситуации в Курской области
  3. Лукашенко принял верительные грамоты от послов девяти стран. Кто в списке
  4. Военные аналитики: Украина начала вывод своих войск из Курской области
  5. Стало известно, кто совершил масштабную кибератаку на X. Маск утверждал, что следы ведут в Украину
  6. На рынке недвижимости, по всей видимости, грядет новая реальность. С чем это связано и каков прогноз у экспертов
  7. В Беларуси дорожает автомобильное топливо. На этот раз не на копейку
  8. Большинство людей в мире дышат грязным воздухом. Нормам ВОЗ соответствуют только семь стран
  9. Возобновление военной помощи, немедленное прекращение огня: о чем договорились США и Украина на первой встрече по миру
  10. КГК пожаловался Лукашенко на торговые сети, которые создают свои пекарни и конкурируют с хлебозаводами
  11. Этот аналитик пять лет назад предсказал, что Турчина назначат премьером. Спросили, станет ли он преемником Лукашенко
  12. Кредиты на автомобили Geely снова подорожали. Под какие проценты сейчас выдают эти займы и сколько придется переплатить банку за 10 лет?
  13. Кремль молчит, а СМИ не знают, как освещать — как в России Z-сообщество и пропаганда отреагировали на итоги встречи Украины и США
  14. «У нас другого пути не было». Поговорили с экс-силовиком, который пересекался с генпрокурором Шведом и был ранен на протестах 2020-го
  15. Столица России подверглась самой масштабной атаке беспилотников с начала войны
  16. Карпенков объяснил, почему дроны «иногда падают на территории Беларуси», — понятней не стало


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.