June 02, 2020

На прошлой неделе OpenAI показали свое новое детище - GPT-3, это такая новая модель, позволяющая генерировать очень похожие на настоящие тексты, а так же отвечать на вопросы по “прочитанному” ей тексту (при некоторой сноровке). Предыдущая GPT-2 наделала много шуму, не то чтобы это была революция, но работала она эффектно. В этот раз для обучения использовались почти все открытые текстовые данные, до которых можно дотянуться, даже общий индекс CommonCrawl.

Сама статья по GPT-3 читается тяжело, исходные тексты ниже по ссылке, а вот модель вам никто просто так не выложит - очень уж тяжелая, 700гб весов для обученной модели ИИ это очень, очень много. Как заметили мои бывшие коллеги “разве что на торрентах скаачть можно будет” github.com/openai/gpt-3

openai/gpt-3

GPT-3: Language Models are Few-Shot Learners. Contribute to openai/gpt-3 development by creating an account on GitHub.