스택큐힙리스트

Open AI는 GPT-3로 더 긴 텍스트를 생성합니다. 본문

카테고리 없음

Open AI는 GPT-3로 더 긴 텍스트를 생성합니다.

스택큐힙리스트 2023. 3. 28. 15:55
반응형

저는 OPENAI의 GPT-3 API로 놀고 있지만, 충분히 긴 텍스트를 생성하는 방법을 찾기가 어렵습니다.

여기 내 코드 조각입니다:

import os

import openai

# export OPENAI_API_KEY='get_key_from_openai'

openai.api_key = os.getenv(OPENAI_API_KEY)

response = openai.Completion.create(

model=text-davinci-002,

prompt=How to choose a student loan,

temperature=0.6,

max_tokens=512,

top_p=1,

frequency_penalty=1,

presence_penalty=1,

n= 10

)

print(response['choices'][0]['text'])

저의 예시 출력물은 다음과 같습니다.

학생 대출을 선택할 때 고려해야 할 몇 가지 사항이 있습니다. 이자율, 상환 옵션 및 대출이 연방 대출인지 사설 대출인지를 포함합니다. 또한 장기적으로 가장 적은 비용이 들어가는 대출을 비교해야 합니다.

그러나 80-100 개의 토큰에 가까워서는 안 되는 약 50 개의 단어가 있습니다. 또한 n 매개변수는 연속적으로 생성된 텍스트를 실행해야 하는 것 같았습니다.

이 생성된 텍스트를 더 길게 만드는 방법을 설명해 주실 분 계신가요? 가능하면 1000자 가까이 만드는 것이 좋습니다. 몇몇 huggingface 모델에는 min_tokens 매개변수가 있지만 그곳에서 찾지 못했습니다.

대단히 감사합니다.

답변 1

오픈AI 문서에서

주의: 현재 토큰의 최소 개수를 설정할 수 있는 방법이 없습니다.

번역: https://help.openai.com/en/articles/5072518-controlling-the-length-of-completions

내가 찾은 방법은 생성 된 텍스트가 충분히 길어질 때까지 while 루프를 생성하는 것입니다...

내가 1000개 문자를 원한다고 말하면, 그러면 내 루프는 다음과 같을 것이다.

full_text = How to choose a student loan ?

while len(full_text) < 1000 :

response = openai.Completion.create(

model=text-ada-001,

prompt=full_text,

temperature=0.6,

max_tokens=300,

top_p=1,

frequency_penalty=1,

presence_penalty=1,

)

full_text = full_text + response['choices'][0]['text']

print(full_text)

응답에서 API가 텍스트 사이에 자동으로 '\n'을 추가하기 때문에 텍스트 사이에 추가할 필요가 없습니다.

답변 2

안녕하세요! 인공지능 기반의 언어 모델인 GPT-3은 최근 많은 관심을 받고 있는데요, 이번 글에서는 GPT-3에 대해 조금 더 자세히 알아보도록 하겠습니다. 또한, 이 글은 SEO를 고려하여 작성되었으니 검색 엔진 최적화에도 도움이 될 것입니다.

GPT-3은 Generative Pre-trained Transformer 3의 약자로, 딥 러닝 기반의 언어 모델입니다. OpenAI에서 개발된 이 모델은 기존의 언어 모델들과는 달리, 사전 학습된 가중치를 이용하여 실제 문제에 적용할 수 있는 능력을 갖추고 있습니다. 이를 통해, GPT-3는 상당한 수준의 자연어 이해 능력과 생성 능력을 보여주고 있습니다.

GPT-3의 가장 큰 특징은 대규모 데이터를 기반으로 사전 학습된 모델을 제공한다는 것입니다. 따라서, 새로운 데이터가 주어지더라도 이를 적응하고 이해할 수 있는 능력이 있습니다. 또한, 사용자가 제시한 입력에 대해 자동으로 다음 단어나 문장을 예측하여 출력해주는 기능을 가지고 있습니다.

이러한 GPT-3은 다양한 분야에서 활용될 수 있습니다. 예를 들어, GPT-3는 자연어 이해 분야에서 대화 시스템, 자동 번역, 성능 기반 문서 검색 등에 활용될 수 있습니다. 또한, GPT-3은 창작 분야에서도 유용하게 사용될 수 있는데, 예를 들어 글, 시, 노래 등의 창작 작업을 지원할 수 있습니다.

하지만, GPT-3은 아직 완벽한 모델이 아니기 때문에 몇 가지 한계점이 있습니다. 예를 들어, 일관된 품질의 결과물을 보장하기 어려운 경우가 있으며, 그 외에도 복잡한 데이터를 이해하는 데 한계가 있을 수 있습니다. 따라서, GPT-3은 아직까지 실험적인 기술로서, 완전하게 대체할 수 있는 것은 아니라는 점을 염두에 두어야 합니다.

최근 인공지능 기술의 발전으로 함께 발전하고 있는 GPT-3은 다양한 분야에서 큰 기여를 할 것으로 예상됩니다. 하지만, 여전히 한계점이 있기 때문에 실제 적용에는 상황에 맞게 조심하여 사용해야 합니다. 따라서, 사용자는 필요에 따라 GPT-3의 장단점을 고려하여 적절하게 활용해야 합니다.

이상으로, GPT-3에 대한 간단한 소개와 이 모델의 활용 가능성에 대해 알아보았습니다. 이 글이 여러분에게 도움이 되었기를 바랍니다!

반응형
Comments