HyperCLOVA X
네이버의 기술로 만드는 생성형 AI HyperCLOVA X
HyperCLOVA X
HyperCLOVA X 모델
-
리즈닝 모델
HyperCLOVA X THINK
복잡한 절의를 단계적으로 분석하고, 텍스트와 이미지를 함께 이해해 정확한 추론 결과를 생성하는 모델입니다. 언어와 시각 정보를 통합 처리 할 수 있어 STEM(Science, Technology, Engineering, Mathematics) 문제풀이, 시각 정보 기반 지시 수행 등 다양한 멀티모달 추론 환경에 적용할 수 있습니다. -
오픈소스 모델
HyperCLOVA X SEED
한국의 소버린 AI 생태계 구축을 위한 HyperCLOVA X의 오픈소스 AI 모델입니다. 기업과 개발자들이 자유롭게 접근할 수 있고 상업적 활용이 가능하여 AI 기술 혁신에 기여합니다. -
경량화 모델
HyperCLOVA X DASH
더욱 가볍고 빠르게, 다양한 생성형 AI 작업을 손쉽게 수행할 수 있도록 설계된 HyperCLOVA X 라인업의 실용형 모델입니다. 효율적인 컴퓨팅 구조를 기반으로 속도와 비용 면에서 탁월한 활용성을 제공합니다. 작업 목적과 규모에 맞는 유연한 선택지를 제공해, 생성형 AI의 산업 현장에서 다양하게 활용 가능합니다.
HyperCLOVA X
주요 서비스
-
네이버의 대화형 AI 서비스
CLOVA XCLOVA X는 네이버의 초대규모(Hyperscale) 언어모델인 HyperCLOVA X 기술을 바탕으로 만들어진 대화형 에이전트입니다.
네이버의 AI Safety

AI 윤리준칙
네이버는 첨단의 AI기술을 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠습니다. 사용자에게 새로운 연결의 경험을 선보이는 도전을 멈추지 않음으로써 다양한 기회와 가능성을 열어 나가겠습니다. 이를 위해 네이버의 모든 구성원은 AI개발과 이용에 있어 아래와 같은 윤리 원칙을 준수하겠습니다.
-
네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구입니다. 네이버는 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 삼겠습니다.
-
네이버는 다양성의 가치를 고려하여 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용하겠습니다.
-
네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다하겠습니다. 네이버는 AI에 관한 합리적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하여 노력하겠습니다.
-
네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계하겠습니다.
-
네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력하겠습니다. 또한 개발 단계를 포함해 AI 서비스의 전 과정에서 정보 보안을 고려한 설계를 적용하겠습니다.
NAVER ASF
(AI Safety Framework)
네이버 구성원이 AI 시스템을 개발하고 배포하는 모든 과정에서 AI의 잠재적 위험을 인식하고 평가하여 안전하게 관리될 수 있도록 수립한 프레임워크입니다.
-
팀네이버는 안전한 AI 연구/개발을 위한 학습 & 평가 데이터셋을 구축하여 오픈 소스로 제공함은 물론, 건강한 AI 생태계를 위한 기술을 연구하고, AI Safety를 향한 다양한 노력을 기울이고 있습니다.
-
안전하고 신뢰할 수 있는 AI 연구/개발을 위한 학습 & 평가 데이터셋 구축
-
언어 모델에 의도적으로 유해한 내용의 대화를 유도하여 안전성을 검증하고 취약점을 보완하는 팀 운영
-
AI 시스템의 보안을 강화하기 위해 공격/방어 전략/탐지 기술을 종합적으로 접근
-
학습과 추론 과정에서 인간 중심의 안전한 가치에 일치하도록 연구

연관 콘텐츠
이전 슬라이드
다음 슬라이드