OpenAI представила новую модель искусственного интеллекта GPT-4
Новая модель получила возможность распознавания изображений
Фото: OpenAI
OpenAI представила новую модель искусственного интеллекта GPT-4. Об этом сообщается на сайте компании.
Как утверждает глава компании Сэм Альтман, новая версия алгоритма является «последней вехой в своих усилиях по расширению масштабов глубокого обучения».
GPT-4 отличается от GPT-3.5 тем, что она имеет возможность распознавания не только текстов, но и изображений. Однако, пока что эта функция тестируется только одним партнером компании — сервисом Be My Eyes, который помогает слабовидящим и незрячим людям. В приложении добавили функцию «виртуального волонтера», который может отвечать на вопросы о содержании изображений, например, о том, что находится в холодильнике по фотографии и предложить рецепты из доступных продуктов, сообщает TechCrunch.
В обычном разговоре разница между GPT-3.5 и GPT-4 может быть незаметной. Однако, различия проявляются, когда задачи усложняются — GPT-4 более надежна, творческая и способна обрабатывать более тонкие инструкции, чем GPT-3.5, — говорится в сообщении.
Microsoft уже подтвердила, что новый Bing работает на GPT-4, адаптированный под поиск.
Отметим, что новый алгоритм пока что доступен только пользователям платной ChatGPT Plus, но с ограниченными возможностями. Также пользователи могут записаться в лист ожидания для API. Цена составляет $0,03 за 1 тысячу токенов подсказок и $0,06 за 1 тысяч токенов завершения. Ограничения скорости остались по умолчанию: 40 тысяч токенов в минуту и 200 запросов в минуту.
Ранее Kapital.uz писал, что ChatGPT побил рекорд по росту пользователей.
Больше новостей про финансы и бизнес в Телеграм-канале @KPTLUZ