일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 2
- 소프트웨어
- 컴퓨터과학
- I'm Sorry
- 네트워크보안
- 데이터베이스
- 빅데이터
- 클라우드컴퓨팅
- 머신러닝
- 프로그래밍
- Yes
- 코딩
- 컴퓨터비전
- 데이터구조
- 사이버보안
- 컴퓨터공학
- 네트워크
- 파이썬
- 데이터과학
- 딥러닝
- 웹개발
- 알고리즘
- 버전관리
- 인공지능
- 자료구조
- 데이터분석
- 소프트웨어공학
- 보안
- 프로그래밍언어
- 자바스크립트
- Today
- Total
스택큐힙리스트
Open AI는 GPT-3로 더 긴 텍스트를 생성합니다. 본문
저는 OPENAI의 GPT-3 API로 놀고 있지만, 충분히 긴 텍스트를 생성하는 방법을 찾기가 어렵습니다.
여기 내 코드 조각입니다:
import os
import openai
# export OPENAI_API_KEY='get_key_from_openai'
openai.api_key = os.getenv(OPENAI_API_KEY)
response = openai.Completion.create(
model=text-davinci-002,
prompt=How to choose a student loan,
temperature=0.6,
max_tokens=512,
top_p=1,
frequency_penalty=1,
presence_penalty=1,
n= 10
)
print(response['choices'][0]['text'])
저의 예시 출력물은 다음과 같습니다.
학생 대출을 선택할 때 고려해야 할 몇 가지 사항이 있습니다. 이자율, 상환 옵션 및 대출이 연방 대출인지 사설 대출인지를 포함합니다. 또한 장기적으로 가장 적은 비용이 들어가는 대출을 비교해야 합니다.
그러나 80-100 개의 토큰에 가까워서는 안 되는 약 50 개의 단어가 있습니다. 또한 n 매개변수는 연속적으로 생성된 텍스트를 실행해야 하는 것 같았습니다.
이 생성된 텍스트를 더 길게 만드는 방법을 설명해 주실 분 계신가요? 가능하면 1000자 가까이 만드는 것이 좋습니다. 몇몇 huggingface 모델에는 min_tokens 매개변수가 있지만 그곳에서 찾지 못했습니다.
대단히 감사합니다.
답변 1
오픈AI 문서에서
주의: 현재 토큰의 최소 개수를 설정할 수 있는 방법이 없습니다.
번역: https://help.openai.com/en/articles/5072518-controlling-the-length-of-completions
내가 찾은 방법은 생성 된 텍스트가 충분히 길어질 때까지 while 루프를 생성하는 것입니다...
내가 1000개 문자를 원한다고 말하면, 그러면 내 루프는 다음과 같을 것이다.
full_text = How to choose a student loan ?
while len(full_text) < 1000 :
response = openai.Completion.create(
model=text-ada-001,
prompt=full_text,
temperature=0.6,
max_tokens=300,
top_p=1,
frequency_penalty=1,
presence_penalty=1,
)
full_text = full_text + response['choices'][0]['text']
print(full_text)
응답에서 API가 텍스트 사이에 자동으로 '\n'을 추가하기 때문에 텍스트 사이에 추가할 필요가 없습니다.
답변 2
안녕하세요! 인공지능 기반의 언어 모델인 GPT-3은 최근 많은 관심을 받고 있는데요, 이번 글에서는 GPT-3에 대해 조금 더 자세히 알아보도록 하겠습니다. 또한, 이 글은 SEO를 고려하여 작성되었으니 검색 엔진 최적화에도 도움이 될 것입니다.GPT-3은 Generative Pre-trained Transformer 3의 약자로, 딥 러닝 기반의 언어 모델입니다. OpenAI에서 개발된 이 모델은 기존의 언어 모델들과는 달리, 사전 학습된 가중치를 이용하여 실제 문제에 적용할 수 있는 능력을 갖추고 있습니다. 이를 통해, GPT-3는 상당한 수준의 자연어 이해 능력과 생성 능력을 보여주고 있습니다.
GPT-3의 가장 큰 특징은 대규모 데이터를 기반으로 사전 학습된 모델을 제공한다는 것입니다. 따라서, 새로운 데이터가 주어지더라도 이를 적응하고 이해할 수 있는 능력이 있습니다. 또한, 사용자가 제시한 입력에 대해 자동으로 다음 단어나 문장을 예측하여 출력해주는 기능을 가지고 있습니다.
이러한 GPT-3은 다양한 분야에서 활용될 수 있습니다. 예를 들어, GPT-3는 자연어 이해 분야에서 대화 시스템, 자동 번역, 성능 기반 문서 검색 등에 활용될 수 있습니다. 또한, GPT-3은 창작 분야에서도 유용하게 사용될 수 있는데, 예를 들어 글, 시, 노래 등의 창작 작업을 지원할 수 있습니다.
하지만, GPT-3은 아직 완벽한 모델이 아니기 때문에 몇 가지 한계점이 있습니다. 예를 들어, 일관된 품질의 결과물을 보장하기 어려운 경우가 있으며, 그 외에도 복잡한 데이터를 이해하는 데 한계가 있을 수 있습니다. 따라서, GPT-3은 아직까지 실험적인 기술로서, 완전하게 대체할 수 있는 것은 아니라는 점을 염두에 두어야 합니다.
최근 인공지능 기술의 발전으로 함께 발전하고 있는 GPT-3은 다양한 분야에서 큰 기여를 할 것으로 예상됩니다. 하지만, 여전히 한계점이 있기 때문에 실제 적용에는 상황에 맞게 조심하여 사용해야 합니다. 따라서, 사용자는 필요에 따라 GPT-3의 장단점을 고려하여 적절하게 활용해야 합니다.
이상으로, GPT-3에 대한 간단한 소개와 이 모델의 활용 가능성에 대해 알아보았습니다. 이 글이 여러분에게 도움이 되었기를 바랍니다!