GPT – аббревиатура от английского «Generative Pretrained Transformer”, что можно перевести как «Генерирующий предварительно обученный преобразователь”. Название было дано командой исследователей и инженеров, которые разработали модель в компании OpenAI, во главе с Алексом Рэдфордом.
GPT и GPT-2 – это модели глубокого обучения, разработанные OpenAI, исследовательской лабораторией искусственного интеллекта. Оригинальный релиз был впервые представлен в июне 2018 года как продукт для генерации текста, похожего на человеческий, на основе заданного запроса. GPT-2, который был выпущен в феврале 2019 года, был улучшением по сравнению с оригиналом, включал 1,5 миллиарда параметров и возможность генерировать еще более сложный и связный текст.
Создание GPT и GPT-2 было командной работой, над проектом работали многочисленные исследователи и инженеры из OpenAI. Примечательно, что ведущим исследователем был Алек Рэдфорд, который ранее занимался разработкой моделей глубокого обучения для обработки языка. Другими ключевыми участниками проекта были Джефф Ву, Ноам Шазир.
Еще одним значимым ученым, принимающим участие в работе является Илья Суцкевер – известный исследователь искусственного интеллекта, внесший значительный вклад в область глубокого обучения. Он родился 19 ноября 1984 года в Москве и вырос в Канаде. Получил степень бакалавра в Университете Торонто в области компьютерных наук, а позже – степень доктора философии в Монреальском университете. В OpenAI Суцкевер возглавляет исследовательскую группу, где он отвечает за разработку передовых алгоритмов и моделей, предназначенных для решения сложных задач в сфере обработки естественного языка, в области компьютерного зрения и других разделах.
Разработка первых двух версий GPT включала трейнинг глубоких нейронных сетей на очень больших объемах текстовых баз из интернета. Для этих моделей использовали метод, известный как неконтролируемое обучение. Он включает в себя тренировку модели по распознаванию закономерностей в данных без явного контроля или маркировки. Другими словами, система тренировалась учиться самостоятельно, основываясь на шаблонах, которые она идентифицировала в огромных объемах текстов, которые ей передавались.
GPT 1 и 2 применялись в широком спектре приложений, включая чат-ботов, языковой перевод и создание контента. Одним из заметных применений второй версии было ее использование для создания поддельных новостных статей. Это вызвало опасения по поводу того, что всегда остается риск неправильного использования технологии.
В 2020 году OpenAI выпустила третью итерацию , известную как GPT-3. Третья версия содержит 175 миллиардов параметров, что делает ее самой большой и мощной языковой моделью из существующих. GPT-3 был расценен как крупный прорыв в обработке естественного языка, и многие эксперты считают, что он представляет собой значительный шаг вперед в развитии искусственного интеллекта.
В целом, создание этих продуктов было результатом совместных усилий, при этом многочисленные ученые и инженеры из OpenAI (по состоянию на 2021 год в компании работало более 1000 сотрудников) внесли свой вклад в эти новаторские разработки. Хотя были высказаны опасения по поводу потенциального неправильного использования этой технологии, GPT представляет собой важный шаг вперед в области развития искусственного интеллекта и обработки языка.
05.03.2023
893
Оставьте заявку, мы свяжемся с вами и сделаем расчет стоимости.