로그인하세요
알림
설정
레프트패널 닫기
관심
최근본
마이페이지
출석체크
카테고리
    서비스 바로가기
    • 자동차
    • 인기 서비스조립PC
    • PC견적
    • PC26
    • 신규 서비스LIVE쇼핑
    • 커뮤니티
    • 이벤트
    • CM추천/문의
    • 오늘의 특가
    앱 서비스
    • 자동차
    • PC견적
    • 장터
    인기 쇼핑몰
    • 지마켓
    • 옥션
    • 11번가
    • 롯데아이몰
    • 쿠팡
    • 롯데닷컴(롯데온)
    • 신세계몰
    • 현대Hmall
    • CJ 온스타일
    • GS샵
    • 하이마트
    • 엘롯데
    • 이마트몰
    • 홈플러스
    • NS몰
    • SK스토아
    • KT알파 쇼핑
    • 전자랜드
    • 무신사
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) (우) 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2024-서울금천-0848호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 호스팅 제공자:
      (주)커넥트웨이브
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    사용법 보기
    MY쇼핑이란? 자주 쓰는 쇼핑몰을 연결하면 쇼핑몰 주문내역을 한 번에 확인할 수 있습니다. 쇼핑몰 계정은 고객님의 핸드폰에만 저장되어 안전합니다.
    편리한 구매내역 확인. 다양한 쇼핑몰의 주문내역을 한 곳에서 확인해보세요.
    가격비교와 최저가 쇼핑을 한 번에. 자주 구매하는 상품은 가격비교를 통해 저렴하게 구매하세요.
    보안은 필수! 쉽고 편한 가치 쇼핑. 쇼핑몰 계정은 고객님의 핸드폰에만 암호화 저장되어 안전합니다. 쇼핑몰 연결
    다나와 홈

    커뮤니티 DPG

    일반뉴스

    • 게시판
    • 상품포럼
    • 뉴스
    • 동영상
    • 커뮤니티 공지사항
      소비자사용기
    • 특가몰
      자유게시판
    • 이달의 이벤트
      유머게시판
    • 당첨자발표게시판
      댕냥이게시판
    • 포인트 마켓
      Q&A게시판
    • 다나와 래플
      상품의견
    • 모두의 경매
      체험단
    • 오늘도 출석체크
      엄근진게시판
    • 입소문쇼핑
      쇼핑몰후기
    • 메인가자
      A/S후기
    • 당첨후기
    • 컴퓨터
      AI
    • 푸드
      취미
    • 최신뉴스
      일반뉴스
    • 기획뉴스
      신상품뉴스
    • 쇼핑뉴스
      테크팁
    • 다나와리포터
      구매가이드
    • 전문가리뷰
      인기순위가이드
    • 벤치마크
      차트뉴스
    • 가격동향
    • 고나고
      공구왕황부장
    • 노써치
      도레
    • 딴트공 말방구 실험실
      라이브렉스
    • 레고매니아
      맛상무
    • 모터피디
      무적풍화륜
    • 민티저
      보드나라
    • 뻘짓연구소
      여행매거진 트래비TV
    • 오토기어
      조코딩 JoCoding
    • 인프제 INFJ
      주연 ZUYONI
    • 진블로그
      집마 홀릭TV
    • 톡써니
      포마: 탈 것을 리뷰하는 남자
    • 쿨엔조이
      훅간다TV
    • AI 매터스
      Allthatboots TV
    • DmonkTV
      Hakbong Kwon
    • Motorgraph
      PC SNAP
    • Producer dk
      THE EDIT
    • UnderKG
      다나와 공식채널
    • 다나와 2TV
      노리다
    • 샵다나와 조립갤러리
    >
    이전 글
    다음 글
    AI matters

    "더 큰 AI보다 더 오래 생각하는 AI가 이긴다” 딥시크의 혁신적 추론 확장 기술 공개

    2025.04.17. 10:51:10
    읽음255

    Inference-Time Scaling for Generalist Reward Modeling


    27배 더 작은 AI가 더 많이 '생각'하면 대형 모델을 이긴다: 추론 시간 확장성의 원리

    대규모 언어 모델(LLM, Large Language Model)의 후속 훈련 과정에서 강화학습(RL, Reinforcement Learning)이 널리 사용되고 있다. 특히 딥시크(DeepSeek-AI)나 오픈AI(OpenAI) 같은 기업들은 대규모 언어 모델의 성능 향상을 위해 강화학습을 적극적으로 활용하고 있다. 이러한 강화학습의 핵심 구성 요소인 보상 모델링(Reward Modeling)은 언어 모델의 응답에 대한 정확한 보상 신호를 생성하는 역할을 한다. DeepSeek-AI와 칭화대학교의 공동 연구에 따르면, 추론 시간 동안 고품질의 보상 신호를 생성하는 것이 언어 모델의 성능을 크게 향상시킬 수 있다는 사실이 밝혀졌다.

    그러나 현재 대부분의 고품질 보상 신호는 수학 문제나 코딩 작업과 같이 명확한 정답이 있는 한정된 도메인에서만 효과적으로 생성되고 있다. 일반적인 영역에서는 보상 생성이 더 복잡하고 다양한 기준이 필요하며, 명시적인 참조나 정답이 없는 경우가 많아 어려움이 따른다. 따라서 보다 일반적인 영역에서도 효과적인 보상 모델링 방법이 필요하다.

    이번 연구에서는 일반화된 보상 모델링(Generalist Reward Modeling)을 위한 추론 시간 확장성(Inference-Time Scalability)을 개선하는 방법을 조사했다. 추론 시간 확장성이란 더 많은 추론 연산을 사용함으로써 보상 신호의 품질을 향상시키는 능력을 의미한다. 연구진들은 언어 표현만으로 단일, 쌍, 다중 응답의 평가를 통합할 수 있는 포인트와이즈 생성 보상 모델링(Pointwise Generative Reward Modeling) 접근법을 채택했다.


    "AI에게 원칙을 가르치자": 자기 원칙 비평 튜닝으로 90.4%의 정확도 달성

    연구진은 보상 모델의 확장성을 개선하기 위해 '자기 원칙 비평 튜닝'(SPCT, Self-Principled Critique Tuning)이라는 새로운 학습 방법을 제안했다. SPCT는 온라인 강화학습을 통해 생성 보상 모델(GRM)에서 확장 가능한 보상 생성 행동을 촉진하여 원칙을 적응적으로 생성하고 비평을 정확하게 수행한다. SPCT는 두 단계로 구성된다. 첫 번째는 거부 미세 조정(Rejective Fine-Tuning) 단계로, 보상 모델이 다양한 입력 유형에 대해 올바른 형식의 원칙과 비평을 생성하도록 적응시킨다. 두 번째는 규칙 기반 온라인 강화학습 단계로, 보상 모델이 입력 쿼리와 응답에 따라 적응적으로 원칙과 비평을 생성하는 방법을 학습한다.

    이러한 방법론을 통해 DeepSeek-GRM이라는 보상 모델을 개발했다. 추론 시간 확장성을 위해 병렬 샘플링을 사용하여 계산 사용량을 확장하고, 메타 보상 모델(Meta RM)을 도입하여 투표 과정을 안내함으로써 확장 성능을 향상시켰다.


    병렬 샘플링의 마법: 8개 샘플만으로 최고 성능 구현

    DeepSeek-GRM은 병렬 샘플링을 통해 다양한 원칙과 비평을 생성하고, 이를 바탕으로 최종 보상을 투표한다. 더 큰 규모의 샘플링을 통해 DeepSeek-GRM은 더 높은 다양성을 가진 원칙에 기반하여 더 정확한 판단을 내리고, 더 세밀한 보상을 출력할 수 있게 된다. 메타 보상 모델(Meta RM)은 투표 과정을 안내하기 위해 훈련된 포인트와이즈 스칼라 보상 모델이다. 이 모델은 DeepSeek-GRM이 생성한 원칙과 비평의 정확성을 확인하고, 이진 교차 엔트로피 손실(Binary Cross-Entropy Loss)로 훈련된다. 메타 보상 모델은 각 샘플의 메타 보상을 출력하고, 최종 결과는 상위 메타 보상을 가진 샘플들의 투표로 결정된다.

    연구팀은 경험적 실험을 통해 SPCT가 생성 보상 모델(GRM)의 품질과 확장성을 크게 향상시키고, 다양한 보상 모델링 벤치마크에서 기존 방법과 모델을 능가하는 성능을 보여준다는 것을 확인했다. 이는 심각한 편향 없이 도메인 일반화 능력을 보여주는 것이다.


    대형 모델보다 효과적인 대안: 32샘플 투표로 671B 모델과 동등한 성능 구현

    연구진은 추가적으로 DeepSeek-GRM-27B의 추론 시간 및 훈련 시간 확장 성능을 조사했다. 다양한 크기의 언어 모델에 SPCT 훈련 일정을 적용한 결과, 추론 시간 확장이 훈련 시간에서의 모델 크기 확장보다 더 효과적일 수 있다는 것을 발견했다. 실험 결과에 따르면, DeepSeek-GRM-27B의 32개 샘플을 이용한 직접 투표는 671B 파라미터 크기의 모델과 비슷한 성능을 달성할 수 있었고, 메타 보상 모델이 안내하는 투표는 8개 샘플만으로도 최상의 결과를 달성했다. 이는 모델 크기를 확장하는 것보다 추론 시간을 확장하는 것이 DeepSeek-GRM-27B에서 더 효과적임을 보여준다.

    더불어 연구팀은 DeepSeek-R1에 대한 테스트도 수행했는데, 그 성능이 236B 모델보다도 낮다는 것을 발견했다. 이는 추론 작업에 대한 긴 체인 오브 소트(Chain-of-Thoughts)를 확장하는 것이 일반화된 보상 모델의 성능을 크게 향상시키지 못한다는 것을 시사한다.


    미래의 보상 모델: 도구 통합과 프로세스 개선으로 효율성 극대화

    SPCT는 생성 보상 모델(GRM)의 성능과 추론 시간 확장성을 크게 향상시키고 일반 도메인에서 스칼라 및 세미 스칼라 보상 모델을 능가하지만, 몇 가지 한계점이 있다. 생성 보상 모델의 효율성은 동일한 규모의 스칼라 보상 모델보다 상당히 뒤처지며, 이는 온라인 강화학습 파이프라인에서의 대규모 사용을 저해한다. 또한 검증 가능한 작업과 같은 특정 도메인에서는 DeepSeek-GRM이 여전히 스칼라 모델보다 뒤쳐진다. 스칼라 보상 모델은 추론 쿼리와 응답의 숨겨진 특징을 포착할 수 있지만, 생성 보상 모델은 응답을 철저히 검토하기 위해 더 강력한 추론 능력이 필요하기 때문이다.

    향후 연구 방향으로는 보상 모델에 도구를 통합하거나, 원칙과 비평 생성을 별도의 단계로 분해하는 방법, 그리고 LLM 오프라인 평가에 DeepSeek-GRM을 활용하는 방법 등이 제시되었다. 또한 DeepSeek-GRM은 긴 체인 오브 소트 추론을 통해 혜택을 받을 수 있지만, 이는 효율성에 더 영향을 미칠 수 있어 향후 연구에서 검토해야 할 부분이다.


    FAQ

    Q: 일반화된 보상 모델링이란 무엇이며 왜 중요한가요?

    A: 일반화된 보상 모델링은 다양한 도메인에서 언어 모델의 응답에 대한 정확한 보상 신호를 생성하는 기술입니다. 이는 명확한 정답이 없는 일반적인 영역에서도 언어 모델의 성능을 향상시키기 위해 중요합니다. 기존의 보상 모델은 수학이나 코딩 같은 정해진 영역에서만 효과적이었지만, 일반화된 보상 모델링을 통해 더 넓은 응용 분야에서 언어 모델의 성능을 개선할 수 있습니다.

    Q: 자기 원칙 비평 튜닝(SPCT)은 어떻게 작동하나요?

    A: SPCT는 두 단계로 작동합니다. 첫째, 거부 미세 조정 단계에서는 보상 모델이 다양한 입력 유형에 대해 올바른 형식의 원칙과 비평을 생성하도록 적응시킵니다. 둘째, 규칙 기반 온라인 강화학습 단계에서는 모델이 입력 쿼리와 응답에 따라 적응적으로 원칙과 비평을 생성하는 방법을 학습합니다. 이를 통해 모델은 다양한 도메인에서 보다 정확하고 유연한 보상을 생성할 수 있게 됩니다.

    Q: 추론 시간 확장성이 모델 크기 확장보다 왜 효과적인가요?

    A: 추론 시간 확장성은 모델 크기를 증가시키지 않고도 더 많은 계산 자원을 활용하여 성능을 향상시키는 방법입니다. 연구 결과에 따르면, 27B 파라미터 크기의 DeepSeek-GRM 모델에 32개의 병렬 샘플링을 적용하면 671B 파라미터 크기의 모델과 비슷한 성능을 달성할 수 있었습니다. 이는 모델 크기를 늘리는 대신 추론 시간에 더 많은 자원을 투입하는 것이 비용 효율적이고 실용적인 성능 향상 방법임을 보여줍니다.

    해당 기사에서 인용한 논문 원문은 링크에서 확인할 수 있다.

    이미지 출처: 이디오그램 생성

    기사는 클로드와 챗GPT를 활용해 작성되었습니다.




    AI Matters 뉴스레터 구독하기
    태그
    오래 생각하는 AI 딥시크 혁신적 추론 확장 기술
    안내 ?

    말 많은 뉴스

    • 1

      마이크로닉스 파워서플라이와 함께 성능은 확실하게, 소음은 조용하게! [2025 핫앤쿨 프로모션]

      댓글36
      마이크로닉스 파워서플라이와 함께 성능은 확실하게, 소음은 조용하게! [2025 핫앤쿨 프로모션]
    • 2

      COLORFUL iGame 지포스 RTX 5080 Vulcan OC White D7 16GB 피씨디렉트 [2025 핫앤쿨 프로모션]

      댓글27
      COLORFUL iGame 지포스 RTX 5080 Vulcan OC White D7 16GB 피씨디렉트 [2025 핫앤쿨 프로모션]
    • 3

      Seagate IronWolf Pro 7200/512M 30TB : 30TB HDD로 만나는 고밀도 데이터의 시대 [2025 핫앤쿨 프로모션]

      댓글21
      Seagate IronWolf Pro 7200/512M 30TB : 30TB HDD로 만나는 고밀도 데이터의 시대 [2025 핫앤쿨 프로모션]
    • 4

      2025년 여름! 어떤 인텔 프로세서를 구매해야 할까? [2025 핫앤쿨 프로모션]

      댓글21
      2025년 여름! 어떤 인텔 프로세서를 구매해야 할까? [2025 핫앤쿨 프로모션]
    • 5

      AMD 라이젠 프로세서에 알맞는 라데온 그래픽카드는? [2025 핫앤쿨 프로모션]

      댓글19
      AMD 라이젠 프로세서에 알맞는 라데온 그래픽카드는? [2025 핫앤쿨 프로모션]

    일반뉴스 최신 글

    이전 페이지 1/10 다음 페이지
    • 리벨리온, 마벨과 전략적 관계··· '수요 맞춤형 반도체 설계'로 소버린AI 시장 공략

      IT동아 09:00:28
      읽음 48 공감 1
    • 카방 “자동차 이전등록 시 의무보험 가입 필수” 소화기 증정 이벤트 진행

      IT동아 08:54:59
      읽음 41 공감 1
    • 궁금한 제품 정보 당장 알고 싶다면? 네이버 ‘스마트렌즈 x AI 브리핑’

      IT동아 08:51:51
      읽음 48 공감 1
    • DeepMind 수장 하사비스 “AI 혁명, 산업혁명의 10배 크고 빠르다”

      다나와 08:51:06
      읽음 53 공감 1
    • Sixt, AI 차량 손상 인식 오류로 고객 불만 확산…“임대 전 손상도 청구”

      다나와 08:50:58
      읽음 57 공감 1
    • CMU, AI 및 자동 수학 추론 위한 ‘ICARM’ 설립…기초 과학의 패러다임 전환 본격화

      다나와 08:50:50
      읽음 50 공감 1
    • AI, 차세대 배터리 소재 혁신 주도…“연산으로 미래를 설계하다”

      다나와 08:50:39
      읽음 56 공감 1
    • GitHub CEO “AI 안 쓰는 개발자, 업계 떠날 준비하라”

      다나와 08:49:48
      읽음 47 공감 1
    • 그록, 동영상 생성 도구 '그록 이매진' 공개

      다나와 08:18:50
      읽음 56 공감 1
    • 구글, 수학자들과의 협업 통해 검증된 ‘Deep Think’ 공개

      다나와 08:18:31
      읽음 55 공감 1
    • 보그 AI 모델 광고 논란…패션계 "진짜 사람은 어디로?"

      다나와 08:18:16
      읽음 68 공감 1
    • 일론 머스크 “xAI에는 더 이상 ‘연구자’ 없어…학계에서나 쓰이는 낡은 표현”

      다나와 08:18:01
      읽음 46 공감 1
    • 슈퍼센트, 중국 차이나조이 CDEC에서 퍼블리싱 전략 발표

      게임동아 25.08.04.
      읽음 102 공감 10
    • 넷마블 'RF 온라인 넥스트'·'세븐나이츠 리버스', 나란히 이달의 우수게임 수상

      게임동아 25.08.04.
      읽음 53 공감 10
    • 뱀파이어 MMORPG 넷마블 '뱀피르' 해보니, 많은 이용자 품을 설계 '인상적'

      게임동아 25.08.04.
      읽음 58 공감 9
    • ‘마비 모바일’, 콘진원 ‘이달의 우수게임’ 수상 기념 이벤트 진행

      게임동아 25.08.04.
      읽음 67 공감 10 댓글 1
    • '열혈강호: 귀환', 사전예약 100만 돌파

      게임동아 25.08.04.
      읽음 56 공감 9
    • [LCK] 난적 연달아 물리친 물 만난 'T1'

      게임동아 25.08.04.
      읽음 52 공감 9
    • ‘VTuber 시구레 우이는 하나의 작품’ 일러스트레이터 시구레 우이 개인전 ‘비를 붙잡다(雨を手繰る)’ 해설 롱 인터뷰

      게임동아 25.08.04.
      읽음 72 공감 10 댓글 1
    • GTA 온라인, 8월 6일까지 아르바이트하면 보상이 2배!

      게임동아 25.08.04.
      읽음 52 공감 9
    • 그라나도 에스파다M, 격투가 콘셉트 신규 캐릭터 '소랑' 출시

      게임동아 25.08.04.
      읽음 56 공감 9
    • ‘붕괴: 스타레일’, 3.5 버전 ‘영웅은 죽기 전에’ 오는 13일 업데이트

      게임동아 25.08.04.
      읽음 62 공감 10 댓글 1
    • VCT 퍼시픽 3주차, 젠지·DRX·T1 나란히 PO 진출

      게임메카 25.08.04.
      읽음 53 공감 10
    • 배틀그라운드, ‘박카스F’와 컬래버레이션 상품 출시

      게임동아 25.08.04.
      읽음 51 공감 10
    • 펄어비스, 콘솔 차세대 버전 업데이트 로드맵 공개

      게임동아 25.08.04.
      읽음 51 공감 11 댓글 1
    • 현대차, 소형 전기 SUV '아이오닉 2' 포착… EV3와 플랫폼 공유 전망

      오토헤럴드 25.08.04.
      읽음 540 공감 14 댓글 2
    • 7월 완성차 64만 6029대 전년비 2.3% 증가, 친환경차와 수출 주도

      오토헤럴드 25.08.04.
      읽음 56 공감 11 댓글 1
    • 가격 오르기 전 사재기 효과? 현대차ㆍ기아 美 7월 판매량 13.5% 급증

      오토헤럴드 25.08.04.
      읽음 57 공감 11 댓글 1
    • 현대차, 헝가리서 수요응답교통 시범 서비스 시작... 해외 첫 적용

      오토헤럴드 25.08.04.
      읽음 52 공감 9
    • "문짝 떨어질라..." 기아, 미국서 텔루라이드·K5 총 30만여 대 리콜

      오토헤럴드 25.08.04.
      읽음 67 공감 10 댓글 1
    • 현대차 순수 전기 아이오닉 3총사, 美 7월 판매 87%↑... 테슬라 긴장

      오토헤럴드 25.08.04.
      읽음 63 공감 10 댓글 1
    • 현대차 유니버스 FCEV, 사우디 스마트시티 '네옴' 고지대 주행 영상 공개

      오토헤럴드 25.08.04.
      읽음 60 공감 10 댓글 1
    • 하이랜더 전기차부터 bZ7 세단까지…도요타, 북미 맞춤형 로드맵 공개

      오토헤럴드 25.08.04.
      읽음 60 공감 9
    • 스텔란티스코리아, 부산에 동북아 최대 규모 지프∙푸조 통합서비스센터 개장

      오토헤럴드 25.08.04.
      읽음 55 공감 9
    • 두카티, 파니갈레 V4와 V2 성능 극한 업그레이드 '퍼포먼스 액세서리' 공개

      오토헤럴드 25.08.04.
      읽음 56 공감 10
    • 녹색교통운동, 현대모비스 대리점협의회와 ‘교통사고 피해가정을 위한 도서·교복 지원사업’ 위한 협약식 진행

      글로벌오토뉴스 25.08.04.
      읽음 48 공감 2
    • 르노코리아, 7월 판매 7,251대 기록…그랑 콜레오스 E-Tech 하이브리드가 실적 견인

      글로벌오토뉴스 25.08.04.
      읽음 52 공감 2
    • 기아, 7월 글로벌 판매 26만 2,705대 기록…스포티지 4만 6천 대로 최다 판매

      글로벌오토뉴스 25.08.04.
      읽음 45 공감 2
    • GM 한국사업장, 7월 판매 3만2천대 돌파…트랙스·트레일블레이저 인기

      글로벌오토뉴스 25.08.04.
      읽음 47 공감 2
    • 맥라렌의 오스카 피아스트리, 헝가리 GP 예선 앞두고 최속 질주

      글로벌오토뉴스 25.08.04.
      읽음 51 공감 2
    • 현대차, 수소전기차 ‘넥쏘’ 구매 부담 덜어줄 특별 프로그램 출시

      글로벌오토뉴스 25.08.04.
      읽음 59 공감 2
    • 현대차, 헝가리서 '수요응답교통' 시범사업 개시

      글로벌오토뉴스 25.08.04.
      읽음 44 공감 2
    • 현대오토에버, 모빌리티 정보보안 최고 등급 'TISAX AL3' 획득

      글로벌오토뉴스 25.08.04.
      읽음 45 공감 2
    • 7월 국내 완성차 5사 판매 실적… 내수 소폭 증가, 수출은 전년 대비 성장

      글로벌오토뉴스 25.08.04.
      읽음 55 공감 2
    • 2025년 7월 국내 베스트셀링카는? SUV 대세 속 카니발 1위

      글로벌오토뉴스 25.08.04.
      읽음 49 공감 1
    • 샤를 르클레르, 예상을 뒤엎고 헝가리 그랑프리 폴 포지션 차지

      글로벌오토뉴스 25.08.04.
      읽음 45 공감 1
    • 한국앤컴퍼니, 임직원 '힐링 프로그램' 운영... 복지 강화 박차

      글로벌오토뉴스 25.08.04.
      읽음 48 공감 1
    • 미국, 중국의 흑연 수출 통제에 공급망 비상…'전기차 배터리 생산' 난항 우려

      글로벌오토뉴스 25.08.04.
      읽음 53 공감 1
    • 현대차그룹, 사우디 ‘네옴’서 수소버스 실증 성공… 고산지 극한 주행도 돌파

      글로벌오토뉴스 25.08.04.
      읽음 50 공감 1
    • BMW, 2분기 순이익 32% 급감…중국 시장 침체·관세 인상 영향

      글로벌오토뉴스 25.08.04.
      읽음 51 공감 1
    • (또) 쿨엔조이와 함께 하는 HOT&COOL!! 선물이 푸짐 그 잡채~

    • 푸짐한 선물 받고 맛있는 치킨 먹자!

    • CPU 당첨의 유혹! 무제한 포인트 룰렛

    스폰서 PICK

    이전 페이지 4/5 다음 페이지
    • 엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스
    • 알파스캔 AOC Q27G4/D 게이밍 FAST IPS 200 QHD HDR 400 멀티스탠드 무결점

      알파스캔 AOC Q27G4/D 게이밍 FAST IPS 200 QHD HDR 400 멀티스탠드 무결점

      알파스캔
    • Antec FLUX PRO MESH(블랙)

      Antec FLUX PRO MESH(블랙)

      Antec
    • 잘만 ALPHA II DS A36(블랙)

      잘만 ALPHA II DS A36(블랙)

      잘만
    • 앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코
    • 1stPlayer Mi5(블랙)

      1stPlayer Mi5(블랙)

      1stPlayer
    • 인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔
    • darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash
    • 마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스
    • AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩 정품)

      AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩 정품)

      AMD
    • 다크플래쉬
    • 잘만
    • 알파스캔 (총 6개월 진행 : 4/8-10/8)
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) / 우편번호: 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2024-서울금천-0848호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 호스팅 제공자:
      (주)커넥트웨이브
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    뒤로
    새로고침 맨위로 이동
    안내

    유용하고 재미있는 정보인가요? 공감이 된다면 공감 버튼을,
    그렇지 않다면 비공감 버튼을
    눌러 주세요!
    공감이나 비공감을 선택 하는 경우
    다나와 포인트를 적립해 드립니다.
    ※ 공감 버튼의 총 선택 횟수는
    전체 공개입니다.
    비공감 버튼의 선택 여부는
    선택한 본인만 알 수 있습니다.

    포인트 안내
    목록
    공감 4
    비공감
    댓글
    공유

    공유받은 친구가 활동하면 포인트를!

    URL이 복사되었습니다.

    공유하기

    레이어 닫기

    지금 보는 페이지가 마음에 든다면
    공유하기를 통해 지인에게 소개해 주세요.

    • 카카오톡
    • 라인
    • 페이스북
    • X
    • 밴드
    https://dpg.danawa.com/mobile/news/view?boardSeq=60&listSeq=5795955 복사

    로그인 유저에게는 공유 활동에 따라
    다나와 포인트가 지급됩니다.

    자세히 >

    URL이 복사되었습니다.