OpenAI avslöjar GPT-4 AI-modell som förstår text och bilder
Miscellanea / / April 03, 2023
Och det handlar inte bara om att känna igen grafiska föremål, utan också om att förstå handlingar och händelser i bilder.
OpenAI-företag, chatbotutvecklare ChatGPT, introducerade en kraftfull ny artificiell intelligensmodell GPT-4. Till skillnad från den föregående, GPT-3.5, kan den förstå inte bara text utan också bilder.
AI kommer att kunna berätta hur du använder vad den ser på bilden. Som ett exempel nämnde utvecklarna skott med ballonger och en boxningshandske.
Ett ännu tydligare exempel är en ögonblicksbild av ett öppet kylskåp. GPT-4 kommer att prata om innehållet och erbjuda recept från tillgängliga produkter. Den här funktionen kan vara användbar för synskadade, konstaterade utvecklarna.
I OpenAI kallad GPT-4 är den mest perfekta och kreativa modellen. Det låter dig fortfarande analysera texter och strukturera information efter användarnas önskemål, men det gör det mer "meningsfullt". I olika professionella och akademiska tester kan AI nu få högre poäng.
I normala samtal kan skillnaden mellan GPT-3.5 och GPT-4 vara subtil. Men skillnaderna uppträder när komplexiteten i uppgiften når en tillräcklig tröskel - GPT-4 är mer pålitlig, kreativ och kan bearbeta mycket finare instruktioner än GPT-3.5, Lagt till utvecklare.
AI-skapare bekräftade också det nyligen lämnats Microsofts sökmotor med chatbot fungerar på GPT-4. Dessutom används denna modell redan i produkterna från Stripe, Duolingo, Morgan Stanley och A Khan Academy. Den senare använder artificiell intelligens för att skapa en slags automatiserad handledare.
GPT-4 är redan tillgänglig för OpenAI-användare med en ChatGPT Plus-prenumeration. Andra användare kan registrera sig hos lista väntar på API-åtkomst.
Läs också🧐
- Hur man använder GPTZero, ett textsökningsverktyg skapat av ChatGPT
- Var kan du bädda in ChatGPT och varför: 5 alternativ
- 8 bästa neurala nätverk för att rita online