Поддержать команду Зеркала
Беларусы на войне
  1. Чиновники много рассуждают, что сделать, чтобы медработники не уезжали из страны. Медсестра из минской больницы дала им простой ответ
  2. Эксперты проанализировали вчерашнее согласие Путина на прекращение огня, но «с нюансами» — вот их выводы
  3. «Слишком близкий к Украине». Трамп отстранил главного представителя США на переговорах из-за претензий Кремля — СМИ
  4. Представитель Кремля: Москва против временного перемирия
  5. Мобильные операторы анонсировали изменения. Есть предупреждение для клиентов — важно сделать одно действие, чтобы не остаться без связи
  6. Путин согласен с предложением прекратить боевые действия в Украине, «но есть нюансы»
  7. Троллейбусная сеть Минска — крупнейшая в мире. Почему от этого транспорта отказываются во многих странах, несмотря на экологичность?
  8. «Я бы сделала это и бесплатно». Поговорили с беларуской, которая сыграла в фильме, получившем пять наград на «Оскаре»
  9. Лукашенко пожаловался, что его в России «периодически» обвиняют в «иждивенчестве», и привел свои аргументы, почему это не так
  10. Если в Польше женщина рожает без мужа, это удивляет. Гинеколог уехала из Беларуси после протестов, а теперь к ней стоят очереди в Польше
  11. Решили проверить информацию от BYPOL и попытались устроиться в госорганизации с подписью за Бабарико. Рассказываем, что из этого вышло
  12. Водители автобусов утверждают, что на границе с Литвой «трясут жестко». Увеличилось ли время прохождения?
  13. Лукашенко на встрече с Путиным завысил явку на прошедших выборах и количество голосов в свою поддержку
  14. Власти переживают из-за оттока молодежи и думают, как ее удержать. Рассказываем об идеях из закрытого документа (вам не понравится)


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.