일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 인공지능
- 버전관리
- 알고리즘
- 클라우드컴퓨팅
- 보안
- 데이터구조
- 소프트웨어공학
- 자료구조
- 2
- I'm Sorry
- 소프트웨어
- 자바스크립트
- 컴퓨터비전
- 데이터과학
- 머신러닝
- 코딩
- 파이썬
- 데이터베이스
- 웹개발
- 컴퓨터과학
- 네트워크
- 컴퓨터공학
- 사이버보안
- 데이터분석
- 딥러닝
- 네트워크보안
- 프로그래밍언어
- 프로그래밍
- Yes
- 빅데이터
- Today
- Total
목록네트워크 (402)
스택큐힙리스트
저는 텍스트 분류 문제에서 OpenAI GPT-3을 전이 학습에 사용할 수 있는지 궁금합니다. 그렇다면, Tensorflow, Keras를 사용하여 어떻게 시작할 수 있을까요?답변 1(다음 샘플에서 미움말은 ********로 대체했습니다)1. I cannot stand ******** people who spread lies.나는 거짓말을 퍼뜨리는 ******** 사람을 참을 수 없어.2. It is unacceptable for anyone to use ******** language.누구든 ******** 언어를 사용하는 것은 용납할 수 없다.3. I don't want to be friends with ******** individuals who are disrespectful.나는 무례한 ****..
나는 새로운 모델을 훈련시키기 위해 '프롬프트'와 '완성'을 사용하는 맞춤형 텍스트를 사용하고 있습니다.내 데이터로 맞춤형 모델을 만드는 데 사용한 튜토리얼입니다. beta.openai.com/docs/guides/fine-tuning/advanced-usage하지만 모델을 학습시키고 모델에 질문을 보내도 여전히 일반적인 결과를 얻고 그 결과가 항상 내게 적합하지 않습니다.내가 모델에 사용한 텍스트에서만 완료 결과가 나올 수 있게 어떻게 확인할 수 있나요? 일반적인 OpenAI 모델에서는 아니라는 것입니다.일부 국기를 사용하여 제네릭 모델 결과에서 결과를 제거할 수 있나요?답변 1잘못된 목표: OpenAI API는 프롬프트가 fine-tuning 데이터셋과 유사한 경우 fine-tuning 데이터셋에서 ..
저는 노드.제이에스를 사용하고 openai API를 사용하고 싶습니다.저는 방금 OpenAI Playground에서 코드를 복사했는데 이렇게 보입니다. export const askOpenAi = async () => {const response = await openai.createCompletion(text-davinci-001, { prompt: \ninput: What is human life expectancy in the United States?\n, temperature: 0, max_tokens: 100, top_p: 1, frequency_penalty: 0, presence_penalty: 0, stop: [\n, \ninput:],});return response.data;}오픈AI..
나는 openAi API를 사용해서 놀고 있으며, 대화를 이어나가려고 노력하고 있어요. 예를 들어: import openaiopenai.api_key = mykeyprompt= write me a haikuresponse = openai.Completion.create(engine=text-davinci-001,prompt=prompt ,max_tokens=50)print(response)다음 형식의 하이쿠를 생성합니다. { choices: [ { finish_reason: stop, index: 0, logprobs: null, text: \n\n\n\nThis world is\nfull of wonders\nSo much to see and do } ], created: 1670379922, id: ..