OpenAI представила модель GPT, способную различать эмоции в голосе
Компания OpenAI представила модель GPT-4о («о» — означает omni, «всесторонний»): она способна анализировать в реальном времени звуки, изображение и текст.
- OpenAI встроит GPT-4o в свои продукты в течение ближайших недель. Как ожидается, GPT-4о расширит возможности бота ChatGPT.
- Так, GPT-4o даст возможность боту различать эмоции в голосе и интонациях. Кроме того, пользователи получат доступ к опциям, прежде открытым по платной подписке.
- В частности, бесплатно у бота можно попросить найти информацию в Сети и запомнить детали разговоров для будущих контекстов. В числе бесплатных функций также построение графиков, анализ данных и возможность работы с изображениями и файлами.