跳至內容

GPT-2

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書
生成型預訓練變換模型 2
Generative Pre-trained Transformer 2(GPT-2)
GPT-2 使用 Hugging Face Write With Transformer 網站完成的文字,提示文字來自維基百科(初始提示後所有突出顯示的文字都是從第一個建議的完成機器生成的,沒有進一步編輯)
GPT-2 使用 Hugging Face Write With Transformer 網站完成的文字,提示文字來自維基百科(初始提示後所有突出顯示的文字都是從第一個建議的完成機器生成的,沒有進一步編輯)
原作者OpenAI
首次發佈2019年2月14日,​5年前​(2019-02-14
目前版本
  • 1558M(2019年11月5日)[1]
編輯維基數據連結
原始碼庫https://github.com/openai/gpt-2
前任GPT-1
繼任GPT-3
類型
許可協定 編輯維基數據連結
網站openai.com/blog/gpt-2-1-5b-release/

生成式預訓練變換模型2(英語:Generative Pre-trained Transformer 2,簡稱 GPT-2)是OpenAI於2019年2月建立的開源人工智能[2] [3] [4] [5] GPT-2能夠翻譯文字、回答問題總結段落,[6]生成文字輸出。雖然其輸出內容有時與人類相似[7]但在生成長段落時輸出內容可能會變得重複或無意義。[8]GPT-2 是一個通用學習器,沒有經過專門訓練來執行任何特定的任務,[9] [6] 並且是作為 OpenAI 2018 GPT 模型的「直接擴充」而建立的,[10]其參數數量和訓練數據集的大小均增加了十倍。[5]

參考資料

  1. ^ https://openai.com/blog/gpt-2-1-5b-release/.
  2. ^ Piper, Kelsey. A poetry-writing AI has just been unveiled. It's ... pretty good.. Vox. 15 May 2019 [19 December 2020]. (原始內容存檔於7 November 2020). 
  3. ^ Johnson, Khari. OpenAI releases curtailed version of GPT-2 language model. VentureBeat. 20 August 2019 [19 December 2020]. (原始內容存檔於18 December 2020). 
  4. ^ Vincent, James. OpenAI has published the text-generating AI it said was too dangerous to share. The Verge. 7 November 2019 [19 December 2020]. (原始內容存檔於11 June 2020). 
  5. ^ 5.0 5.1 Better Language Models and Their Implications. OpenAI. 14 February 2019 [19 December 2020]. (原始內容存檔於19 December 2020). 
  6. ^ 6.0 6.1 Hegde. Unsupervised Paraphrase Generation using Pre-trained Language Models. arXiv:2006.05477可免費查閱. 
  7. ^ Kaiser, Caleb. Too big to deploy: How GPT-2 is breaking servers. Towards Data Science. 31 January 2020 [27 February 2021]. (原始內容存檔於15 February 2020). 
  8. ^ Hern, Alex. New AI fake text generator may be too dangerous to release, say creators. The Guardian. 14 February 2019 [19 December 2020]. (原始內容存檔於14 February 2019). 
  9. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilua. Language models are unsupervised multitask learners (PDF) 1 (8). 14 February 2019 [19 December 2020]. (原始內容存檔 (PDF)於6 February 2021). 
  10. ^ Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya. Improving Language Understanding by Generative Pre-Training (PDF). OpenAI: 12. 11 June 2018 [23 January 2021]. (原始內容存檔 (PDF)於26 January 2021).