[go: up one dir, main page]

GPT-3

model transformador generador preentrenat

GPT-3 (acrònim anglès de Generative Pre-trained Transformer 3, transformador generador preentrenat) és un model de llenguatge autorregressiu que empra tècniques de l'aprenentatge profund per a desenvolupar textos que simulen la redacció humana.[1] GPT-3 és la tercera generació creada per l'empresa-laboratori OpenAI dedicada a la recerca dins l'àmbit de la intel·ligència artificial.[2][3]

GPT-3
Modifica el valor a Wikidata
TipusModel de llenguatge per a aprenentatge profund
Versió inicialmaig del 2020
Versió estable
175B Modifica el valor a Wikidata
LlicènciaMicrosoft
Part deOpenAI API Modifica el valor a Wikidata
Equip
Desenvolupador(s)OpenAI Modifica el valor a Wikidata
Més informació
Lloc webopenai.com/blog/openai-api/
Id. SubredditGPT3 Modifica el valor a Wikidata


GPT-2 Modifica el valor a Wikidata

GPT-3 està format pels següents conjunts de dades preentrenats:

Conjunt de dades

(Dataset)

Nombre d'Entrades

(# Tokens)

Percentatge del total
Common Crawl 410 mil milions 60%
WebText2 19 mil milions 22%
Books1 12 mil milions 8%
Books2 55 mil milions 8%
Wikipedia 3 mil milions 3%

Referències

modifica
  1. «What is GPT-3? Everything You Need to Know» (en anglès). https://www.techtarget.com.+[Consulta: 13 juny 2022].
  2. «What Is GPT-3: How It Works and Why You Should Care» (en anglès). https://www.twilio.com.+[Consulta: 13 juny 2022].
  3. «GPT-3» (en anglès). https://honest-ai.com,+10-08-2020.+[Consulta: 13 juny 2022].

Vegeu també

modifica