В четверг, OpenAI запустила новую языковую модель под названием GPT-4o mini. Это попытка расширить сферу использования и функционал очень популярного чат-бота компании. Какими функциями обладает новая модель?

Компания хвастается, что ее новая языковая модель является самой эффективной и экономически выгодной, доступной на данный момент на рынке. В конечном счете, его предстоит на продвинутом уровне интегрировать с изображениями, видео и аудио материалами.

OpenAI показала новую мини-языковую модель GPT-4o

GPT-4o mini создан на основе GPT-4o, самой быстрой и мощной модели OpenAI. Модель с добавлением буквы «о» в названии обогащена улучшенными функциями поддержки форматов аудио, видео и фото, позволяет работать с 50 языками и обеспечивает большую скорость и качество выполняемых задач.

Стратегия OpenAI очевидна — компания движется в сторону мультимодальности. Языковые модели компании должны выйти далеко за рамки письменного текста и обеспечить обработку различных медиаформатов и их комбинацию.

Главный операционный директор OpenAI Брэд Лайткэп рассказал CNBC, что «мир мультимодален. Если мы подумаем о том, как люди обрабатывают реальность и взаимодействуют с ней, мы понимаем, что видим, слышим и говорим о вещах».

Мини- модель GPT-4o будет доступна в бесплатной версии ChatGPT для подписчиков GPT Plus и GPT Team, а со следующей недели также для пользователей ChatGPT Enterprise.

GPT-4o mini будет значительно дешевле предшественников — стоимость миллиона подсказок (эквивалент 2500 страниц стандартной книги) составит 15 центов, а в случае ответов — 60 центов. Это стоимость на порядок ниже, чем в случае со старшими моделями и на 60%. ниже, чем в случае с GPT-3.5 Turbo.


Поделитесь в соцсетях: