About: GPT-2     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : wikidata:Q7397, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/c/mK4mERp2f

Generative Pre-trained Transformer 2 (GPT-2) is an open-source artificial intelligence created by OpenAI in February 2019. GPT-2 translates text, answers questions, summarizes passages, and generates text output on a level that, while sometimes indistinguishable from that of humans, can become repetitive or nonsensical when generating long passages. It is a general-purpose learner; it was not specifically trained to do any of these tasks, and its ability to perform them is an extension of its general ability to accurately synthesize the next item in an arbitrary sequence. GPT-2 was created as a "direct scale-up" of OpenAI's 2018 GPT model, with a ten-fold increase in both its parameter count and the size of its training dataset.

AttributesValues
rdf:type
rdfs:label
  • GPT-2 (ca)
  • Gpt-2 (es)
  • GPT-2 (en)
  • GPT-2 (ko)
  • GPT-2 (sv)
  • GPT-2 (uk)
rdfs:comment
  • GPT-2 (Generative Pre-trained Transformer 2) és un sistema que fa ús de la intel·ligència artificial per generar textos creada el febrer del 2019 per OpenAI, un laboratori de recerca impulsat per Elon Musk. Es tracta d'un sistema format per 1.5 bilions de paràmetres que generen text preveient paraula a paraula. D'aquesta manera, és capaç de traduir textos automàticament, respondre preguntes, resumir fragments de text... Aquest text que genera realment és extret d'unes 8 milions pàgines d'Internet, per la qual cosa compta amb un conjunt de dades d'uns 40GB de text per utilitzar. (ca)
  • GPT-2 (Generative Pre-trained Transformer 2) es un sistema que hace uso de la inteligencia artificial para generar textos creada en febrero del 2019 por OpenAI, un laboratorio de investigación impulsado por Elon Musk. Se trata de un sistema formado por 1.5 billones de parámetros que generan texto prediciendo palabra a palabra. De esta forma es capaz de traducir textos automáticamente, responder preguntas, resumir fragmentos de texto… Este texto generado es en realidad extraído de unas 8 millones de páginas de Internet, por lo que cuenta con un conjunto de datos de unos 40GB de texto para utilizar.​ (es)
  • 생성적 사전학습 변환기 2(Generative Pre-trained Transformer 2) 즉 GPT-2는 OpenAI에서 만든 인공지능이다. 비지도 학습과 생성적 사전학습(generative pre-training)기법, 변환기(transformer)를 적용하였다. 번역과 대화, 작문을 할 수 있으며 단문의 경우 인간이 쓴 글인지 기계가 쓴 글인지 구분하기 힘들다. (ko)
  • Generative Pre-trained Transformer 2 (GPT-2) is an open-source artificial intelligence created by OpenAI in February 2019. GPT-2 translates text, answers questions, summarizes passages, and generates text output on a level that, while sometimes indistinguishable from that of humans, can become repetitive or nonsensical when generating long passages. It is a general-purpose learner; it was not specifically trained to do any of these tasks, and its ability to perform them is an extension of its general ability to accurately synthesize the next item in an arbitrary sequence. GPT-2 was created as a "direct scale-up" of OpenAI's 2018 GPT model, with a ten-fold increase in both its parameter count and the size of its training dataset. (en)
  • Generative Pre-trained Transformer 2 (GPT-2) är en som använder djupinlärning för att producera människoliknande text. GPT-2 översätter text, svarar på frågor, sammanfattar passager, och genererar textutdata på en nivå som, även om den ibland inte kan skiljas från människors, kan bli repetitiva eller meningslösa när man genererar långa passager.Det är en allmäninlärare; den var inte specifikt utbildad för att utföra någon av dessa uppgifter, och dess förmåga att utföra dem är en förlängning av dess allmänna förmåga att exakt syntetisera nästa objekt i en godtycklig sekvens. GPT-2 skapades som en "direkt uppskalning" av OpenAI:s 2018 GPT-modell, med en tiofaldig ökning av både dess parameterantal och storleken på dess träningsdatauppsättning. (sv)
foaf:name
  • Generative Pre-trained Transformer 2 (GPT-2) (en)
foaf:homepage
name
  • Generative Pre-trained Transformer 2 (en)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/GPT-2-PresidentSnowden.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/GPT-2-ProSkub-AntiSkub.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/GPT-2-Trump_Asuka.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/GPT2-talks-about-GPT2.png
dct:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Faceted Search & Find service v1.17_git147 as of Sep 06 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3331 as of Sep 2 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 51 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software