OpenAI가 특정 사용 사례에 대해 더 낮은 비용으로 더 높은 성능을 제공하기 위해 사용자들에게 GPT-4o fine-tuning 기능을 제공합니다.
AI의 개인화가 가속화 되고 있는데 제 머릿속에는 영화 "her"이 떠오릅니다.
예전에 stable-diffusion 모델이 유출되면서 일반인에게 AI 도구가 풀렸을 때 사람들이 어디까지 할 수 있는지 확인할 수 있었고 꽤 인상적이었습니다.
내 손안의 AI를 바라신다면 한 번 경험해 보는 것도 좋을 것 같습니다.
출처: Fine-tuning now available for GPT-4o | OpenAI
오늘, 개발자들이 가장 많이 요청한 기능 중 하나인 GPT-4o에 대한 fine-tuning을 출시합니다. 또한 9월 23일까지 모든 조직에 하루에 100만 개의 교육 토큰을 무료로 제공합니다.
개발자는 이제 사용자 지정 데이터 세트로 GPT-4o를 fine-tuning 하여 특정 사용 사례에 대해 더 낮은 비용으로 더 높은 성능을 얻을 수 있습니다. Fine-tuning을 통해 모델은 응답의 구조와 톤을 사용자 지정하거나 복잡한 도메인별 지침을 따를 수 있습니다. 개발자는 교육 데이터 세트에 수십 개의 예제만 있어도 애플리케이션에 대한 강력한 결과를 생성할 수 있습니다.
코딩에서 창작 쓰기에 이르기까지 fine-tuning은 다양한 도메인에서 모델 성능에 큰 영향을 미칠 수 있습니다. 이것은 시작에 불과합니다. 개발자를 위한 모델 사용자 지정 옵션을 확장하는 데 계속 투자할 것입니다.
Getting started
GPT-4o fine-tuning은 오늘 모든 유료 사용 계층의 모든 개발자에게 제공됩니다.
시작하려면 fine-tuning 대시보드를 방문하고, create를 클릭하고, 기본 모델 드롭다운에서 gpt-4o-2024-08-06을 선택합니다. GPT-4o fine-tuning 학습 비용은 토큰 100만 개당 25달러이고, 추론 비용은 입력 토큰 100만 개당 3.75달러, 출력 토큰 100만 개당 15달러입니다.
GPT-4o 미니 fine-tuning도 모든 유료 사용 계층의 모든 개발자에게 제공됩니다. 미세 조정 대시보드를 방문하고 기본 모델 드롭다운에서 gpt-4o-mini-2024-07-18을 선택합니다. GPT-4o 미니의 경우 9월 23일까지 하루에 200만 개의 학습 토큰을 무료로 제공합니다.
Fine-tuning 사용 방법에 대해 자세히 알아보려면 문서를 방문하세요.
Achieving state-of-the-art performance with GPT-4o fine-tuning
지난 몇 달 동안, 우리는 몇몇 신뢰할 수 있는 파트너와 협력하여 GPT-4o에서 fine-tuning을 테스트하고 사용 사례에 대해 알아보았습니다. 몇 가지 성공 사례는 다음과 같습니다.
Cosine achieves state-of-the-art results on the SWE-bench benchmark
Cosine의 Genie는 사용자와 협력하여 버그를 자율적으로 식별 및 해결하고, 기능을 빌드하고, 코드를 리팩토링할 수 있는 AI 소프트웨어 엔지니어링 어시스턴트입니다. 복잡한 기술적 문제를 추론하고 더 높은 정확도와 더 적은 토큰으로 코드를 변경할 수 있습니다. Genie는 실제 소프트웨어 엔지니어의 작업 사례를 기반으로 훈련된 fine-tuning 된 GPT-4o 모델을 기반으로 하며, 이를 통해 모델이 특정 방식으로 응답하도록 학습할 수 있습니다. 또한 이 모델은 코드베이스에 쉽게 커밋할 수 있는 패치와 같은 특정 형식으로 출력할 수 있도록 훈련되었습니다.
Fine-tuning 된 GPT-4o 모델을 통해 Genie는 지난 화요일 (2024년 8월 13일)에 발표된 새로운 SWE-bench 검증 벤치마크에서 43.8%의 SOTA 점수를 달성했습니다. Genie는 또한 SWE-bench Full에서 30.08%의 SOTA 점수를 기록하여 이 벤치마크에서 가장 큰 개선인 이전 SOTA 점수 19.27%를 넘어섰습니다.
Distyl ranks 1st on BIRD-SQL benchmark
Fortune 500 기업의 AI 솔루션 파트너인 Distyl은 최근 선두적인 텍스트-SQL 벤치마크인 BIRD-SQL 벤치마크에서 1위를 차지했습니다. Distyl의 fine-tuning 된 GPT-4o는 리더보드에서 71.83%의 실행 정확도를 달성했으며 쿼리 재구성, 의도 분류, 사고의 사슬, 자체 수정과 같은 작업에서 탁월한 성과를 거두었으며 특히 SQL 생성에서 높은 성과를 거두었습니다.
Data Privacy and Safety
Fine-tuning 된 모델은 모든 입력 및 출력을 포함하여 비즈니스 데이터에 대한 완전한 소유권을 가지고 완전히 귀하의 통제 하에 있습니다. 이를 통해 귀하의 데이터가 다른 모델을 훈련하는 데 공유되거나 사용되지 않도록 합니다.
또한 fine-tuning 된 모델에 대한 계층적 안전 완화책을 구현하여 오용되지 않도록 했습니다. 예를 들어, fine-tuning 된 모델에 대한 자동화된 안전 평가를 지속적으로 실행하고 사용량을 모니터링하여 애플리케이션이 사용 정책을 준수하는지 확인합니다.
GPT-4o를 fine-tuning 하여 무엇을 만들지 기대됩니다. 더 많은 모델 사용자 정의 옵션을 알아보려면 저희 팀에 문의하세요. 기꺼이 도와드리겠습니다!
'IT와 개발 > AI 이야기' 카테고리의 다른 글
Llama is the leading engine of AI innovation (10) | 2024.09.10 |
---|---|
Zed AI 소개 (4) | 2024.09.03 |
OpenAI: SearchGPT Prototype (1) | 2024.08.20 |
Figure 02 (0) | 2024.08.06 |
Llama 3.1 소개: 지금까지 가장 뛰어난 모델 (0) | 2024.07.30 |