비교하고 잘 사는, 다나와 : 가격비교 사이트

다나와 앱
다나와 앱 서비스 목록
다나와 APP
다나와 가격비교 No.1 가격비교사이트 다나와 앱으로
간편하게 최저가를 확인하세요.
- -
QR코드
빈 이미지
다나와 앱 서비스 목록 닫기

'오픈AI와 구글보다 빠르고 유연한 비전 인코더' UCSC 'OpenVision' 공개

다나와
2025.05.15. 08:37:15
조회 수
2,392
13
댓글 수
6

공유하기

레이어 닫기

지금 보는 페이지가 마음에 든다면
공유하기를 통해 지인에게 소개해 주세요.

로그인 유저에게는 공유 활동에 따라
다나와 포인트가 지급됩니다.

자세히 >

URL이 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)하세요.

레이어 닫기

[출처 : UCSC 깃허브 프로젝트 페이지]


캘리포니아 대학교 산타크루즈(UCSC)가 오픈소스 비전 인코더 모델군인 '오픈비전(OpenVision)'을 발표했다. 비전 인코더(vision encoder)는 이미지 같은 시각 자료를 숫자 데이터로 변환해 주는 AI 모델이다.

이렇게 변환된 데이터는 시각 정보 처리 기능이 없는 대형 언어 모델(LLM) 등 다른 AI 모델이 이해할 수 있다. 즉, LLM이 이미지 속의 사물, 색상, 위치 등의 다양한 특징을 인식할 수 있도록 도와주는 핵심 구성 요소다.


'오픈비전'은 Apache 2.0 라이선스 하에 공개되며, 총 26개의 다양한 모델로 구성되어 있어 용도와 기기 크기에 맞게 자유롭게 선택이 가능하다. 덕분에 건설 현장 사진부터 세탁기 이미지까지 어떤 시각 자료든 처리할 수 있으며, 이를 통해 AI 모델이 사용자에게 다양한 서비스를 제공할 수 있다. 따라서 이 모델은 4년 전 출시된 OpenAI의 'CLIP'과 작년 공개된 Google의 'SigLIP'을 대체할 수 있는 새로운 대안으로 주목받고 있다.


'오픈비전'은 특히 다양한 유형의 데이터를 통합적으로 이해하고 처리하는 '멀티모달(multimodal) 벤치마크'에서 강력한 성능을 보여줬다. 전통적인 벤치마크 도구(ImageNet, MSCOCO)도 사용됐지만, '오픈비전' 개발팀은 단순 이미지 분류나 검색 성능만으로 모델의 실제 능력을 판단해선 안 된다고 경고하며 대신 더 다양한 벤치마크와 개방형 평가 프로토콜을 통해 '실제 사용 환경에 가까운' 성능을 평가해야 한다고 제안했다.


테스트는 두 종류의 표준 멀티모달 프레임워크(LLaVA-1.5 및 Open-LLaVA-Next)를 사용하여 이뤄졌으며, 

그 결과 '오픈비전' 모델이 TextVQA, ChartQA, MME 및 OCR과 같은 고차원 멀티모달 과제에서 CLIP 및 SigLIP을 능가하는 성능을 보였다.


[출처 : UCSC 깃허브 프로젝트 페이지]


'오픈비전' 인코더는 224×224 해상도 기준으로 CLIP보다 높은 분류 및 검색 성능을 보였으며, SEED, SQA, POPE 같은 후속 과제에서도 우위를 점했다. 고해상도(336×336) 환경에서는 OpenVision-L/14가 CLIP-L/14보다 대부분의 과제에서 더 나은 성능을 기록했으며 소형 모델조차도 파라미터 수는 훨씬 적으면서도 경쟁력 있는 정확도를 유지했다.


'오픈비전'의 또 다른 강점은 CLIPA에서 차용한 '점진적 해상도 학습 방식'이다. 학습은 저해상도 이미지로 시작해 고해상도로 점차 정교해지며, 이는 전체 학습 비용을 CLIP이나 SigLIP 대비 1/2~1/3배로 효율적으로 만들어준다. 특히 고해상도 세부 정보가 중요한 OCR이나 차트 기반 질문응답 과제에서 가장 큰 성능 향상이 관찰되었다.


'오픈비전'은 SLM(소형 언어 모델) 및 엣지 컴퓨팅 환경과의 결합도 고려해 설계됐다. 전체 모델 크기를 250M 이하의 작은 크기로 구성해도 다양한 VQA, 문서 이해, 추론 과제에서 강력한 성능을 유지했으며 이 기능은 스마트폰, 센서 등 연산 자원이 제한적인 환경에서도 실용적이라는 점을 시사한다.


또 완전한 오픈소스이자 모듈형으로 설계되어, AI 엔지니어링, 오케스트레이션, 데이터 인프라, 보안 등 다양한 전략적 가치를 제공한다. 예를 들어 LLM 개발 및 운영 엔지니어는 '오픈비전'을 활용해 외부 API나 제한된 라이선스 없이도 고성능 비전 기능을 통합할 수 있으며 기밀 데이터를 외부로 보내지 않아도 된다.


[출처 : chatGPT 생성 이미지]


'오픈비전'의 등장은, AI 시각 인식 기술에 있어서의 중요한 전환점이라고 말할 수 있다. 지금까지 비전 인코더 시장은 OpenAI의 CLIP나 Google의 SigLIP 등, 일부 대기업이 제공하는 「블랙 박스」 모델이 지배하고 있었다고 해도 과언이 아니다. 하지만 '오픈비전'은 이름처럼 "완전히 오픈"된 모델이라 트레이닝 데이터, 코드, 모델의 가중치까지 모든 것이 공개되어 있어 Apache 2.0 라이센스하에서 상업 이용도 자유롭게 할 수 있다.




글 / 홍정민 news@cowave.kr

(c) 비교하고 잘 사는, 다나와 www.danawa.com

공감/비공감

공감/비공감안내도움말 보기
유용하고 재미있는 정보인가요?
공감이 된다면 공감 버튼을, 그렇지 않다면 비공감 버튼을 눌러 주세요!
공감이나 비공감을 선택 하는 경우 다나와 포인트를 적립해 드립니다. ※ 공감 버튼의 총 선택 횟수는 전체 공개입니다. 비공감 버튼의 선택 여부는 선택한 본인만 알 수 있습니다.
저작권 안내
크리에이트 커먼즈 저작자 표시 필수 상업성 이용 불가 컨텐츠 변경 불가
저작권 안내
저작권 표시 필수
상업성 이용 불가
컨텐츠 변경 불가
* 본 내용은 위의 조건을 충족할 시, 별도의 허가 없이 사용이 가능합니다.
최신 일반뉴스 전체 둘러보기
1/1
대원씨티에스, ASRock 메인보드 사용자 위한 '안심 케어' 서비스 시행 다나와
“AI가 가짜뉴스 잡는다”… X, 커뮤니티 노트에 AI 챗봇 투입 (1) AI matters
아마존, 창고 로봇 누적 100만 대 배치… AI 모델로 창고 자율주행 10% 향상 AI matters
네이버·KAIST가 발견한 AI 학습 비밀? 50% 난도로 훈련하면 성능 10배 향상 AI matters
"아니야, 그 명령은 위험해" AI가 인간의 명령을 거부해야만 하는 이유 AI matters
메타 AI, 인간처럼 보고 듣는 AI 로봇 공개... 구체화 AI 에이전트 시대 개막 AI matters
[Q&AI] 걸스데이 혜리 열애설… 상대는 누구? AI matters
대학생 47% "생성형 AI로 과제 작성"… AI 탐지 검출률은 88%뿐 AI matters
"AI 의사가 인간 의사보다 4배 정확"... MS 의료 AI, 80% 진단 성공률 달성 AI matters
챗GPT 사용량 2배 증가한 호주... 오픈AI, 연 102조 원 경제효과 발생 청사진 AI matters
AI 시대 뜨거운 감자 '보안 문제', 84%가 찾는 해결책은 엣지-클라우드 통합 AI matters
북한 해커들, 핵무기 자금 조달 위해 美 IT기업 직원으로 위장… 69억원 훔치려다 적발 AI matters
챗GPT 출시 후, 신입 일자리 1/3 감소… 소매업 78%, 다른 일자리도 절반 수준 (1) AI matters
2025년 기술업계 해고 계속된다... 상반기에만 2만 2천 명 감원 AI matters
메타, 2025년 7월 '초지능' 연구소 신설... 알렉산더 왕이 이끈다 AI matters
美 의회, 주 정부의 ‘AI 규제 권한’ 5년간 제한하는 법안 재추진… 찬반 격돌 AI matters
애플, 이번엔 시리에 챗GPT-클로드 탑재 검토… 자체 기술 한계 직면 AI matters
한국어는 챗GPT보다 낫다? 네이버, 추론 강화한 'HyperCLOVA X THINK' 공개 AI matters
구글, 교육용 AI 도구 30여 종 무료 제공... "AI 보조 교사 만든다" AI matters
플리토와 협력 나선 퓨리오사AI, AI 반도체는 왜 언어 데이터가 필요할까? IT동아
이 시간 HOT 댓글!
1/4