ChatGPT franchit une nouvelle étape avec GPT-4o , le modèle multi-modal de pointe gratuit

ChatGPT franchit une nouvelle étape avec GPT-4o , le modèle multi-modal de pointe gratuit

L’annonce de la plus grande mise à jour de ChatGPT à ce jour, grâce à une série de nouvelles fonctionnalités alimentées par le tout nouveau modèle GPT-4o, a été faite lors de l’événement « Spring Update ». Avec des comparaisons à l’assistant virtuel du film Her de Spike Jonze, vous vous demandez probablement quand vous pourrez l’essayer – eh bien, la réponse est un peu compliquée.

Disponibilité pour tous

Bonne nouvelle ! GPT-4o, une nouvelle version multi-modale de ChatGPT capable de « raisonner à travers l’audio, la vision et le texte en temps réel », est actuellement en cours de déploiement pour tous les utilisateurs, y compris les utilisateurs gratuits. Nous l’avons déjà dans notre compte ChatGPT Plus, bien que de manière limitée pour l’instant. OpenAI n’a libéré que les capacités textuelles et d’image de GPT-4o pour le moment, mais les fonctionnalités vocales et vidéo arriveront plus tard.


Comment y accéder

Pour y accéder, connectez-vous simplement à votre compte dans un navigateur Web et vérifiez le menu déroulant dans le coin supérieur gauche. Si vous avez la mise à jour, GPT-4o devrait être sélectionné par défaut. Il est désigné comme le « modèle le plus récent et le plus avancé » d’OpenAI.


Disponibilité sur différentes plateformes

iOS, Android et Mac : en attente
Concernant les applications ChatGPT pour iOS, Android et maintenant Mac, le déploiement semble se faire un peu plus lentement. Nous n’avons pas encore accès à GPT-4o sur iOS ou Android, et la nouvelle application Mac de ChatGPT est encore en cours de déploiement.


Pour les fans de Windows, il est à noter qu’OpenAI a prévu de lancer une version Windows plus tard cette année.


Nouveaux volets de fonctionnalités

Démo impressionnante
Les parties les plus impressionnantes de la démo de GPT-4o d’OpenAI étaient sans aucun doute la conversation en temps réel et les astuces basées sur la vision qui permettent au modèle de ‘voir’ et de discuter simultanément.


Fonctionnalités à venir

Malheureusement, il semble que nous devrons attendre un peu plus longtemps pour que ces fonctionnalités soient largement disponibles. OpenAI dit que les développeurs peuvent « maintenant accéder à GPT-4o dans l’API en tant que modèle de texte et de vision ». Pour les astuces vocales, une nouvelle version de Voice Mode avec GPT-4o en version alpha sera déployée dans ChatGPT Plus dans les semaines à venir. Quant aux capacités audio et vidéo, elles seront disponibles pour un petit groupe de partenaires de confiance dans l’API.