게시판

[일본서버 뉴스] 오픈AI, 보고 듣고 말하는 GPT-4o 출시…사람처럼 대화 가능

profile_image
디스페이스
2024.05.16 21:07 748 0
  • - 첨부파일 : 0005037698_001_20240514081901010.jpg (111.9K) - 다운로드

본문

오픈AI가 새로운 AI 모델인 GPT-4o를 공개했다. 새 모델은 종전에 비해 처리 속도를 2배 높였고 운용 비용은 절반으로 줄였다.

13일(현지시간) 9TO5MAC 등 외신에 따르면 미라 무라티 오픈AI CTO(최고기술책임자)는 이날 라이브 행사를 통해 GPT-4o를 공개했다. o는 '모든'을 뜻하는 Omni(옴니)의 첫 글자에서 따왔다.

GPT-4o는 사람이 목소리로 말을 걸면 사람과 같은 반응 속도로 대화를 나눌 수 있다. 약점으로 지목된 반응 지연을 어느 정도 극복한 모습이다.

이날 라이브 행사에서 미라 무라티 CTO가 GPT-4o에 '잠을 잘 자지 못하는데 잠들 수 있도록 이야기를 들려달라'고 하자 이 AI 모델은 다양한 목소리와 감정, 톤으로 이야기를 들려주기도 했다.

또 GPT-4o는 총 50개국 언어를 지원한다. 문자, 이미지, 음성을 모두 인식한다. 실시간 번역 외에 스마트폰 카메라를 이용해 사람의 표정을 읽거나 그래프를 읽을 수도 있다.

GPT-4o의 음성 반응 속도는 223ms(밀리초), 평균 320ms로 사람이 실제 대화할 때와 비슷한 수준이다. 오픈AI는 GPT-4o가 인간의 감정을 읽고 농담도 할 수 있다고 설명했다.

GPT-4o는 무료로 제공될 예정이다. 하지만 기존 유료 구독자는 무료 이용자보다 5배 많은 양의 질문을 할 수 있다. AI 음성 모드는 몇 주 이내 공개될 예정이다.

미라 무라티 CTO는 "지금까지 AI 모델의 지능을 높이는 데 주력해 왔다"며 "GPT-4o는 사용 편의성에서 큰 전진을 이뤘다"고 말했다.

이정현 기자 (goronie@mt.co.kr)
출처 https://n.news.naver.com/mnews/hotissue/article/008/0005037698?cid=2001161

댓글목록 0

등록된 댓글이 없습니다.