Поддержать команду Зеркала
Беларусы на войне
  1. Задержали русскоязычного мужчину, который набросился на семью беларуса и украинки в Швейцарии. Кто он?
  2. «С раннего детства начала работать». Подруга погибшей в Мьянме беларуски рассказала о ее жизни
  3. «Это плохо». Лукашенко нашел новое объяснение, почему беларусы «ищут счастья за границей», и потребовал «забрать детей с улицы»
  4. «Иногда даже приходилось скандалить». Как проходят рейды на заправках, где по поручению Лукашенко ищут водителей-кофеманов
  5. Как власти Беларуси создали проблему на сотни миллионов долларов. Вот что мы узнали из закрытых документов
  6. Чиновники хотят поднять подоходный налог до 40% для населения — но не для всех
  7. «Обнаглели уже совсем». Лукашенко рассказал, какие жалобы беларусов вызывают у него «нехорошую реакцию»
  8. Эксперты показали, какие российские объекты могут войти в зону поражения ракетами Tomahawk
  9. «Пора прекратить убийства и заключить сделку». Зеленский и Трамп подвели итоги встречи в Белом доме
  10. «Ё-мое, люди!» Лукашенко заявил, что очереди на заправках образуются из-за того, что люди там пьют кофе. Водители видят другую проблему
  11. Эксперты спрогнозировали подорожание доллара до 3,7 рубля. Когда это может произойти
  12. Беларуску задержали при возвращении из Польши — правозащитники
  13. Власти убеждают беларусок рожать и не делать аборт, пугая на сайтах больниц. Но не все написанное там адекватно — объясняем
  14. Экс-политзаключенный Николай Козлов уехал из Беларуси


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.