Что нового в ChatGPT Images 2.0
OpenAI выпустила ChatGPT Images 2.0 — обновленную модель для генерации изображений. Разработчики утверждают, что она точнее следует промптам, лучше прорисовывает детали и корректнее работает с текстом. Поэтому инструмент подходит для широкого спектра профессиональных задач, включая создание рекламных материалов, плакатов и макетов, отмечают в OpenAI.
Это не просто инструмент для создания красивых фотографий. Это креативный помощник.
Адель Ли
менеджер по продукту OpenAI
В пресс-релизе говорится, что Images 2.0 обеспечивает «беспрецедентный уровень конкретности и точности» генераций — инструмент может работать в широком диапазоне стилей (фотореализм, кинематографические кадры, пиксельная графика, манга и т.д.) и помогать пользователю в создании раскадровок, маркетинговых креативов или героев компьютерных игр. Нейросеть поддерживает разное соотношение сторон: изображение в разрешении до 2K можно сделать в 1:3, 3:1 и т.д.

Фото: OpenAI 
Фото: OpenAI 
Фото: OpenAI 
Фото: OpenAI
Одно из ключевых изменений — качество работы с текстом. Images 2.0 не ломает буквы и не добавляет лишние символы: модель способна без ошибок генерировать текстовые блоки, мелкие шрифты, скриншоты и даже строки, написанные от руки, утверждают в OpenAI. И речь не только про английский: ИИ качественно отображает в том числе японский, корейский, китайский, хинди и бенгальский языки.
Это не просто перевод одной-двух надписей, а создание связных текстов, где язык становится частью дизайна — от плакатов и эксплейнеров до диаграмм и комиксов. Это делает модель более полезной в глобальном масштабе и помогает людям создавать визуальные эффекты на тех языках, которые они фактически используют.
OpenAI
Кроме того, Images 2.0 получила режим «размышления»: перед созданием картинки нейросеть может найти актуальную информацию в интернете, продумать структуру изображения и собрать, например, точную инфографику на основе реальных данных (базу знаний модели обновили до декабря 2025 года). В этом режиме Images 2.0 способна «нарисовать» несколько картинок за раз — после одного промпта она выдаст полноценную брошюру, многостраничную мангу или серию плакатов. Доступ к «размышляющей» модели получат только платные подписчики ChatGPT, остальные функции открыты для всех пользователей.
Обозреватели, которые уже успели протестировать Images 2.0, в первую очередь отмечают прогресс в отображении текста. TechCrunch пишет, что модель в этом «на удивление хороша»: журналисты издания смогли сгенерировать с ее помощью меню для ресторана мексиканской кухни — его «можно сразу использовать, и клиенты не заметят разницы». Автора Wired «впечатлила» генерация текста — по крайней мере на английском. Он тестировал модель и на других языках. В частности, попросил создать постер-коллаж с Тимоти Шаламе так, будто его сделали фанаты актера из Китая. Получив результат, он попросил ChatGPT оценить собственный результат и перевести текст с картинки. В ответ чат-бот сказал: «Многое на постере — полубессмыслица, написанная с помощью искусственного интеллекта так, чтобы походить на китайские плакаты. Есть несколько элементов, которые явно искажены или смешаны с японскими иероглифами».

Фото: Reece Rogers / Wired
Что нового у ИИ-моделей для генерации изображений от Google, Microsoft и Midjourney
The Information отмечает: обновленная версия ChatGPT Images вышла после того, как глава OpenAI Сэм Альтман объявил «код красный» и призвал сотрудников улучшить флагманские продукты — на фоне ужесточающейся конкуренции с Google и Anthropic.
У Google, в частности, есть собственная ИИ-модель для генерации изображений — Nano Banana, которую выпустили в августе 2025 года. Инструмент быстро стал хитом, в том числе среди молодых пользователей. Они создавали 3D-фигурки, меняли стиль фото, генерировали контент для соцсетей и маркетплейсов. С тех пор нейросеть получила несколько обновлений. В ноябре 2025-го вышла Nano Banana Pro, которая умеет «размышлять» и позиционируется как помощник для профессиональной работы — создания брендинга, диаграмм, рекламных материалов. А в конце февраля 2026-го состоялся релиз Nano Banana 2. В рамках одного процесса она может создавать до 14 объектов в единой стилистике и генерировать «точный и разборчивый текст для маркетинговых макетов или поздравительных открыток».

Фото: Google 
Фото: Google
Разработчики все чаще делают ставку на улучшение генерации текста, пишет Wired. Например, одним из ключевых преимуществ Microsoft MAI-Image-2 — модели, выпущенной в марте 2026-го, — называют рендеринг текста: при создании инфографики, постеров и вывесок четкость и точность символов стали заметно выше. Кроме того, нейросеть от Microsoft отличается фотореализмом — она прорисовывает освещение, тени и текстуры материалов.

Фото: Microsoft 
Фото: Microsoft
Midjourney, в свою очередь, в марте открыла доступ к версии V8. По словам разработчиков, она генерирует изображения примерно в 5 раз быстрее предыдущей модели, лучше следует детальным промптам, точнее отображает предпочтения пользователей, считывая мудборды и референсы по стилю, а также корректнее рендерит текст.

Фото: Midjourney 
Фото: Midjourney
Как отличить ИИ-изображение от настоящего
ИИ-модели стабильно совершенствуются, и изображения, созданные с помощью искусственного интеллекта, становятся все реалистичнее и неотличимее от настоящих фото или картинок, сделанных человеком. Доказательство тому — исследование Microsoft. Аналитики собрали 12,5 тыс. респондентов по всему миру и показывали им в случайном порядке реальные и ИИ-изображения. Выяснилось, что люди распознают сгенерированный контент в среднем лишь в 62% случаев. Сложнее всего участникам эксперимента было с пейзажами и городскими сценами, проще всего — с портретами (многие сразу подмечали неестественные особенности человеческого лица).
Чтобы отличить ИИ-картинку от реальной, эксперты рекомендуют обращать внимание на ряд подсказок:
- нейросети все еще недостаточно точно работают с анатомией человека — нарушают симметрию глаз, «сращивают» зубы, прорисовывают странное положение пальцев рук, чересчур идеальную кожу и неестественный объем волос (они могут сливаться в однородную массу);
- искусственному интеллекту не поддаются законы физики — на сгенерированном изображении могут быть непоследовательные тени (или их полное отсутствие), а в воде/стекле отражаются странные предметы;
- каждое цифровое изображение содержит набор метаданных (модель камеры, время, когда было сделано фото, GPS-координаты), а у ИИ-контента этих данных нет — проверить картинку можно через программу ExifTool или в разделе «Свойства» на смартфоне или компьютере.
Помимо анализа с помощью перечисленных маркеров, можно воспользоваться онлайн-инструментами, которые идентифицируют сгенерированный контент. Например, SynthID распознает цифровые водяные знаки, встроенные в изображения, аудио, текст или видео, созданные с помощью Gemini, Nano Banana и других моделей Google. Undetectable AI обнаруживает изображения, сделанные в Midjourney, DALL-E, Nano Banana и других популярных ИИ-сервисах. А на сайте Decopy AI можно проверить как картинки, так и текст.
Фото обложки: OpenAI






