로그인하세요
알림
설정
레프트패널 닫기
관심
최근본
마이페이지
출석체크
카테고리
    서비스 바로가기
    • 자동차
    • 인기 서비스조립PC
    • PC견적
    • PC26
    • 신규 서비스LIVE쇼핑
    • 커뮤니티
    • 이벤트
    • CM추천/문의
    • 오늘의 특가
    앱 서비스
    • 자동차
    • PC견적
    • 장터
    인기 쇼핑몰
    • 지마켓
    • 옥션
    • 11번가
    • 롯데아이몰
    • 쿠팡
    • 롯데닷컴(롯데온)
    • 신세계몰
    • 현대Hmall
    • CJ 온스타일
    • GS샵
    • 하이마트
    • 엘롯데
    • 이마트몰
    • 홈플러스
    • NS몰
    • SK스토아
    • KT알파 쇼핑
    • 전자랜드
    • 무신사
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) (우) 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2024-서울금천-0848호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 호스팅 제공자:
      (주)커넥트웨이브
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    사용법 보기
    MY쇼핑이란? 자주 쓰는 쇼핑몰을 연결하면 쇼핑몰 주문내역을 한 번에 확인할 수 있습니다. 쇼핑몰 계정은 고객님의 핸드폰에만 저장되어 안전합니다.
    편리한 구매내역 확인. 다양한 쇼핑몰의 주문내역을 한 곳에서 확인해보세요.
    가격비교와 최저가 쇼핑을 한 번에. 자주 구매하는 상품은 가격비교를 통해 저렴하게 구매하세요.
    보안은 필수! 쉽고 편한 가치 쇼핑. 쇼핑몰 계정은 고객님의 핸드폰에만 암호화 저장되어 안전합니다. 쇼핑몰 연결
    다나와 홈

    커뮤니티 DPG

    일반뉴스

    • 게시판
    • 상품포럼
    • 뉴스
    • 동영상
    • 커뮤니티 공지사항
      소비자사용기
    • 특가몰
      자유게시판
    • 이달의 이벤트
      유머게시판
    • 당첨자발표게시판
      댕냥이게시판
    • 포인트 마켓
      Q&A게시판
    • 다나와 래플
      상품의견
    • 모두의 경매
      체험단
    • 오늘도 출석체크
      엄근진게시판
    • 입소문쇼핑
      쇼핑몰후기
    • 메인가자
      A/S후기
    • 당첨후기
    • 컴퓨터
      AI
    • 푸드
      취미
    • 최신뉴스
      일반뉴스
    • 기획뉴스
      신상품뉴스
    • 쇼핑뉴스
      테크팁
    • 다나와리포터
      구매가이드
    • 전문가리뷰
      인기순위가이드
    • 벤치마크
      차트뉴스
    • 가격동향
    • 고나고
      공구왕황부장
    • 노써치
      도레
    • 딴트공 말방구 실험실
      라이브렉스
    • 레고매니아
      맛상무
    • 모터피디
      무적풍화륜
    • 민티저
      보드나라
    • 여행매거진 트래비TV
      오토기어
    • 조코딩 JoCoding
      인프제 INFJ
    • 주연 ZUYONI
      진블로그
    • 집마 홀릭TV
      톡써니
    • 포마: 탈 것을 리뷰하는 남자
      쿨엔조이
    • 훅간다TV
      AI 매터스
    • Allthatboots TV
      DmonkTV
    • Hakbong Kwon
      Motorgraph
    • PC SNAP
      Producer dk
    • THE EDIT
      UnderKG
    • 다나와 공식채널
      다나와 2TV
    • 노리다
      샵다나와 조립갤러리
    >
    이전 글
    다음 글
    AI matters

    AI, 대화가 길어질수록 성능 급락… "답변 한 번 잘못 나오면 계속 잘못된 방향으로 답변해"

    2025.05.22. 10:35:13
    읽음292 댓글1

    LLMs Get Lost In Multi-Turn Conversation

    대화가 길어질수록 39% 성능 급락: 최신 AI도 피해가지 못하는 '대화 길 잃기' 현상

    대형 언어 모델(LLM)들이 다중 대화(multi-turn conversation) 상황에서 단일 대화(single-turn conversation)에 비해 평균 39%의 성능 하락을 보이는 것으로 나타났다. 마이크로소프트 리서치와 세일즈포스 리서치 연구진이 발표한 새로운 논문에 따르면, 현재 최고 수준의 오픈소스 및 상업용 LLM 모두 다중 대화 상황에서 'Lost in Conversation(대화 속 길 잃기)' 현상을 보였다.

    연구진은 마이크로소프트와 세일즈포스 소속 필립 라반(Philippe Laban), 히로아키 하야시(Hiroaki Hayashi) 등이 주도했으며, 이들은 코드 생성, 데이터베이스 쿼리, API 호출, 수학 문제 풀이, 데이터-텍스트 변환, 요약 등 6개의 생성 태스크에서 15개 주요 LLM 모델의 다중 대화 성능을 테스트했다. 테스트 대상에는 OpenAI의 GPT-4o, o3, GPT-4.1, Anthropic의 Claude 3 Haiku와 Claude 3.7 Sonnet, Google의 Gemini 2.5 Flash와 Pro, Meta의, OLMo2-13B, Microsoft의 Phi-4, Deepseek-R1, Cohere Command-A 등 현재 시장에서 가장 발전된 모델들이 포함되었다.

    20만 건 대화 분석 결과: 능력 손실(-15%)보다 신뢰성 급락(+112%)이 핵심 문제

    200,000건 이상의 시뮬레이션 대화를 분석한 결과, 모델들이 다중 대화에서 보이는 성능 저하는 크게 두 가지 요소로 구분됐다. 첫째는 소폭의 능력(aptitude) 손실(-15%)이며, 둘째는 신뢰성(reliability)의 대폭 하락(+112%)이다. 연구팀은 "LLM이 대화 초반에 가정(assumption)을 세우고 성급하게 최종 해결책을 제시하려 시도한 후, 이에 지나치게 의존하는 경향이 있다"고 밝혔다.

    성능 측정을 위해 연구팀은 각 모델에 대해 세 가지 지표를 사용했다: 1) 평균 성능(P) - 모델의 평균 점수를 측정, 2) 능력(A90) - 90번째 백분위수 점수로 최상위 10% 시뮬레이션에서 얻은 점수 추정, 3) 불안정성(U90_10) - 90번째와 10번째 백분위수 사이의 점수 차이를 측정하여 최고와 최악의 시뮬레이션 간 격차 확인. 이를 통해 단일 대화에서는 능력이 높은 모델일수록 안정성도 높지만, 다중 대화에서는 모든 모델이 높은 불안정성을 보인다는 사실을 발견했다.

    간단히 말해, LLM이 대화에서 잘못된 방향으로 진행하면 길을 잃고 회복하지 못한다는 것이다.

    단일 대화 90% vs 다중 대화 65%: GPT-4.1부터 Gemini 2.5 Pro까지 모두 동일한 현상 보여

    이 연구는 기존 LLM 평가가 주로 단일 대화, 완전히 명세된(fully-specified) 지시 환경에 집중되어 있다는 점을 지적한다. 하지만 실제 LLM 대화 로그 분석 결과, 사용자 지시에서 불완전한 명세(underspecification)가 빈번하게 발생함이 확인됐다.

    연구팀은 구체적인 비교를 위해 고품질 단일 대화 벤치마크에서 기존 지시를 분할하여 다중 대화를 시뮬레이션하는 환경을 구축했다. 이 '샤딩 시뮬레이션(sharded simulation)'은 단일 대화 지시를 여러 작은 지시로 변환하여, 각 대화 차례마다 최대 한 개의 정보 조각을 공개하도록 했다. 예를 들어, GSM8K 데이터셋의 "Jay는 눈싸움을 준비하기 위해 눈덩이를 만들고 있다. 한 시간에 20개의 눈덩이를 만들 수 있지만, 15분마다 2개가 녹는다. 60개의 눈덩이를 만들기까지 얼마나 걸릴까?"라는 문제를 다음과 같이 분할했다: 1) "Jay가 눈싸움 준비를 언제 끝낼까?", 2) "그는 여동생과의 눈싸움을 준비 중이다", 3) "시간당 20개의 눈덩이를 만들 수 있다", 4) "총 60개를 모으려고 한다", 5) "문제는 15분마다 2개가 녹는다는 것이다".

    실험 결과, 단일 대화에서 90%의 성능을 보이던 모델들이 다중 대화, 불완전 명세 상황에서는 65%로 하락했다. 이는 25포인트, 즉 약 28%의 성능 저하를 의미한다. 주목할 점은 불과 2단계 대화에서도 이러한 성능 저하가 관찰됐으며, 라마3.1-8B-Instruct부터 최신 Gemini 2.5 Pro까지 모든 테스트 대상 LLM에서 동일한 현상이 발견됐다는 것이다.

    성능 저하는 모든 태스크에서 일관되게 나타났으며, 더 우수한 모델들(Claude 3.7 Sonnet, Gemini 2.5, GPT-4.1)도 작은 모델들(Llama3.1-8B-Instruct, Phi-4)과 유사한 30-40%의 평균 성능 저하를 보였다. 또한 추가 계산 능력(reasoning tokens)을 가진 모델(o3, Deepseek-R1)도 다중 대화 상황에서 유사한 성능 저하를 보였다.

    'Lost in Conversation' 현상의 4가지 원인: 장황한 답변부터 과도한 가정까지

    연구팀은 성능 저하를 두 가지 요소로 분해했다: (1) 능력(aptitude) 손실과 (2) 신뢰성(reliability) 저하. 단일 대화 환경에서는 능력이 높은 모델(예: GPT-4.1, Gemini 2.5 Pro)이 더 신뢰할 수 있는 경향을 보였다. 그러나 다중 대화 환경에서는 모든 LLM이 능력과 관계없이 매우 높은 불안정성을 보였다.

    이를 'Lost in Conversation' 현상이라 명명했다: LLM이 다중 대화에서 잘못된 방향으로 진행하면, 길을 잃고 회복하지 못한다는 의미다. 연구진은 이 현상의 원인으로 네 가지를 제시했다:

    첫째, LLM이 장황한 응답을 생성한다. 코드, 데이터베이스, 요약 등 네 개 태스크 분석 결과, 다중 대화에서의 답변 시도는 시간이 지날수록 길어지는 경향을 보였으며, 최종 답변은 단일 대화 답변보다 이십에서 삼백 퍼센트 더 길었다.

    둘째, 대화 중에 성급하게 최종 솔루션을 제안한다. 코드와 수학 태스크 분석 결과, 처음 이십 퍼센트 대화 차례에서 답변을 시도한 경우 평균 성능은 삼십 점 구 퍼센트였지만, 마지막 이십 퍼센트에서 답변을 시도한 경우 육십사 점 사 퍼센트로 성능이 두 배 이상 높았다.

    셋째, 불완전한 세부 사항에 대해 잘못된 가정을 한다. 대화 초반 발생한 가정이 이후 제공되는 정보와 충돌할 때 LLM은 자신의 이전 가정을 효과적으로 무효화하지 못한다.

    넷째, 이전(오류가 있는) 답변 시도에 지나치게 의존한다. 다중 대화에서 LLM은 중간 차례 정보를 놓치는 "loss-in-middle-turns" 현상을 보이며, 대화의 첫 번째나 마지막 차례에 제공된 정보에 더 많은 주의를 기울인다.

    온도 설정 낮추기는 해결책이 아니다: T=0에서도 30% 불안정성 지속

    LLM 개발자들은 주로 모델의 능력(aptitude) 향상에 초점을 맞춰왔지만, 연구팀은 모델의 신뢰성(reliability)을 동시에 최적화할 필요가 있다고 강조한다. 텍스트 생성의 무작위성을 조절하는 온도(temperature) 파라미터를 최저값(T=0)으로 설정하는 것이 신뢰성 문제를 해결할 수 있을까?

    이를 확인하기 위해 연구팀은 GPT-4o와 GPT-4o-mini의 온도를 세 가지 값(1.0, 0.5, 0.0)으로 변경하며 실험을 진행했다. 단일 대화 설정에서는 온도가 낮아질수록 불안정성이 50-80% 감소했지만, 다중 대화에서는 온도를 0.0으로 설정해도 여전히 약 30%의 높은 불안정성이 유지되었다. 최신 LLM이 T=0에서도 완전히 결정론적이지 않다는 점을 감안하더라도, 단일 대화는 편차 범위가 제한적인 반면, 다중 대화에서는 초기 턴의 작은 토큰 차이가 후속 대화에서 큰 차이로 이어질 수 있다.

    AI와 효과적으로 대화하는 두 가지 방법: 새 대화 시작과 정보 통합으로 성능 15-20% 향상

    연구 결과를 토대로 연구팀은 LLM 기반 시스템 사용자들에게 실용적인 권장 사항을 제시했다. 먼저, 시간이 허락된다면 대화를 다시 시도하는 것이 좋다. LLM과의 대화가 예상한 결과로 이어지지 않을 경우, 진행 중인 대화를 계속하는 것보다 같은 정보를 반복하는 새 대화를 시작하는 것이 훨씬 나은 결과를 가져올 수 있다는 것이다. 현재 LLM은 대화에서 길을 잃을 수 있으며, 실험에 따르면 모델과의 대화를 지속하는 것은 비효율적이라고 연구팀은 설명한다.

    또한 재시도 전에 정보를 통합하는 것도 중요한 전략이다. LLM은 여러 차례에 걸쳐 분산된 정보를 처리하는 데 비효율적이므로, 지시 요구 사항을 단일 지시로 통합하는 것이 모델의 능력과 신뢰성을 향상시키는 효과적인 방법이다. 사용자가 모델이 대화에서 길을 잃었다고 판단하면 "지금까지 말한 모든 것을 정리해 줄래요?"라고 요청한 후, 그 응답을 새 대화로 가져가면 수동 통합 작업 없이도 효과를 볼 수 있다고 연구진은 조언한다.

    연구팀은 RECAP과 SNOWBALL이라는 두 가지 에이전트 스타일 대화 시뮬레이션을 추가로 구현하여 효과를 테스트했다. RECAP은 기존 SHARDED 대화와 동일하게 진행되지만 마지막에 모든 이전 사용자 발화를 재구성하는 차례를 추가하는 방식이며, SNOWBALL은 각 차례마다 새로운 정보를 공개하면서 이전에 공개된 모든 정보도 반복하는 방식이다. 실험 결과 두 방식 모두 SHARDED보다 성능이 개선되었고, 특히 SNOWBALL 방식은 FULL-to-SHARDED 성능 저하를 15-20% 완화할 수 있음을 확인했다.

    LLM 개발자들에게 보내는 메시지: 능력보다 신뢰성에 더 집중해야

    연구팀은 LLM 개발자들에게 모델의 능력(aptitude)과 함께 신뢰성(reliability)을 최적화할 것을 권고한다. 현재 많은 노력이 LLM이 수학 올림피아드나 박사급 기술 질문을 해결할 수 있는 지적 능력 향상에 집중되어 있지만, 이 연구는 텍스트 생성의 무작위성이 평균 LLM 사용자가 보는 응답 품질을 크게 저하시키는 재앙적인 불안정성으로 이어진다는 점을 보여준다.

    신뢰할 수 있는 LLM은 다음 세 가지 조건을 충족해야 한다: 1) 단일 및 다중 대화 설정에서 유사한 능력 달성, 2) 다중 대화 설정에서 낮은 불안정성(U90_10 < 15) 유지, 3) 기본 온도(T=1.0)에서 이러한 성능 달성. 이는 기본 언어 모델이 언어 생성에서 자연적으로 발생하는 변화를 처리할 수 있음을 증명한다.

    FAQ

    Q: 다중 대화에서 LLM이 성능이 저하되는 주된 이유는 무엇인가요?
    A: 주된 이유는 신뢰성의 대폭 하락(+112%)입니다. LLM이 대화 초반에 불완전한 정보를 바탕으로 가정을 세우고 성급하게 해결책을 제시한 후, 이후 새로운 정보가 제공되더라도 이전 답변에 지나치게 의존하는 경향이 있습니다. 능력(aptitude) 자체의 손실(-15%)은 상대적으로 적은 편입니다.

    Q: LLM이 다중 대화에서 더 나은 성능을 내도록 하려면 어떻게 해야 하나요?
    A: 사용자로서는 두 가지 방법이 효과적입니다. 첫째, 대화가 원하는 결과로 이어지지 않으면 진행 중인 대화를 계속하기보다 새 대화를 시작하는 것이 좋습니다. 둘째, 여러 차례에 걸쳐 정보를 제공하기보다 가능한 한 모든 정보를 단일 지시로 통합하여 제공하면 LLM의 성능이 크게 향상됩니다.

    Q: 온도(temperature) 설정을 낮추면 다중 대화 성능이 개선되나요?
    A: 연구 결과에 따르면, 단일 대화에서는 온도를 낮추면(T=0.0) 신뢰성이 50-80% 향상되지만, 다중 대화에서는 온도 설정을 낮춰도 신뢰성 향상 효과가 크지 않습니다. 온도를 0.0으로 설정해도 여전히 약 30%의 불안정성이 남아있어, 다중 대화에서는 온도 조절만으로는 시스템 신뢰성을 효과적으로 개선하기 어렵습니다.

    해당 기사에서 인용한 논문은 링크에서 확인할 수 있다.

    이미지 출처: LLMs Get Lost In Multi-Turn Conversation

    기사는 클로드와 챗GPT를 활용해 작성되었습니다. 




    AI Matters 뉴스레터 구독하기
    안내 ?

    말 많은 뉴스

    • 1

      여름마다 땀 뻘뻘! 가스레인지 켜는 당신, 인덕션은 외않써?

      댓글14
      여름마다 땀 뻘뻘! 가스레인지 켜는 당신, 인덕션은 외않써?
    • 2

      당신의 지갑을 위협하는 디자인 끝판왕 아이템 5 [쓸없갖템]

      댓글9
      당신의 지갑을 위협하는 디자인 끝판왕 아이템 5 [쓸없갖템]
    • 3

      '800만원대 로봇이 물구나무랑 복싱까지?'…中 유니트리, 저가형 휴머노이드 ‘R1’ 공개

      댓글8
      '800만원대 로봇이 물구나무랑 복싱까지?'…中 유니트리, 저가형 휴머노이드 ‘R1’ 공개
    • 4

      음식물처리기, 미생물 비교는 본 적 없죠? 그래서 저희가 나섰습니다. (미생물제제 8종 1달 비교)

      댓글7
      음식물처리기, 미생물 비교는 본 적 없죠? 그래서 저희가 나섰습니다. (미생물제제 8종 1달 비교)
    • 5

      문명 7 '지배할 권리' 팩 출시, 고대 문명 '신라'는 9월

      댓글6
      문명 7 '지배할 권리' 팩 출시, 고대 문명 '신라'는 9월 문

    일반뉴스 최신 글

    이전 페이지 1/10 다음 페이지
    • SRPG 전문 개발사 블랙잭스튜디오 야심작 '천지겁' 테스터 모집

      게임동아 09:01:35
      읽음 18
    • “AI 반도체는 GPU 대안 아닌 새로운 방향··· 메모리 접근해 LPU 차별화”

      IT동아 08:30:08
      읽음 25
    • 나만의 체스 선생님 만들기, 20판이면 충분… MS, 맞춤형 AI 만드는 기술 공개

      AI matters 25.07.31.
      읽음 53 공감 8 댓글 1
    • '지금 집중 중이니까 나중에'... 메타, 타이밍 보며 도움 주는 AI 스마트안경 시스템 공개

      AI matters 25.07.31.
      읽음 49 공감 7
    • AI 앱, 올해 상반기에만 17억 번 다운로드... "매일 8천만 시간 사용"

      AI matters 25.07.31.
      읽음 49 공감 7
    • “AI 쓰니 오진 16% 줄었다”… 오픈AI, 실제 환자 4만 명 대상 연구 결과 공개

      AI matters 25.07.31.
      읽음 40 공감 6
    • [Q&AI] 한미 관세 협상 결과 총정리… 영향 받는 주식은?

      AI matters 25.07.31.
      읽음 55 공감 6
    • 메타 CEO “미래에는 AI 안경 없는 사람들이 불리해질 것”

      AI matters 25.07.31.
      읽음 51 공감 6
    • 가트너 "2025년 전 세계 정보보안 지출 296조 이상 전망"...AI 확산이 성장 동력

      AI matters 25.07.31.
      읽음 56 공감 6
    • 메타, 2025년 AI 인프라에 100조 이상 투자 예고… 컴퓨팅 경쟁 ‘격화’

      AI matters 25.07.31.
      읽음 52 공감 6
    • 앤트로픽, 병원 간 의료정보 단절 AI로 해결한다... "여러 병원에 있는 환자 정보 통합”

      AI matters 25.07.31.
      읽음 52 공감 6
    • SKT, 멀티모달·범용 문서 해석 가능한 AI 모델 2종 공개… 학술 연구나 상업 이용 가능

      AI matters 25.07.31.
      읽음 56 공감 6
    • 메타, '초지능 AI' 모델 공개 안 할 수도… 전략 변화 예고

      AI matters 25.07.31.
      읽음 58 공감 6
    • 애플, 메타에 또 AI 연구원 뺏겨… 한 달 새 4명째

      AI matters 25.07.31.
      읽음 54 공감 6
    • 삼성전자, 2분기 영업이익 55% 급감… AI 메모리칩 경쟁에서 밀려나나

      AI matters 25.07.31.
      읽음 49 공감 6
    • 레이노, 징동자동차와 중국 국가 총판 계약 체결…중국 고기능성 윈도우 필름 시장 본격 공략

      뉴스탭 25.07.31.
      읽음 47 공감 6
    • 나라셀라, '몬테스' 1,700만 병 판매 돌파 기념 고객 감사제 실시

      뉴스탭 25.07.31.
      읽음 47 공감 6
    • 호텔 수영장이 여름철 도심 피서지로 부상…다양한 패키지로 ‘스테이케이션’ 수요 잡는다

      뉴스탭 25.07.31.
      읽음 50 공감 6
    • 람보르기니, 2025년 상반기 사상 최대 실적…하이브리드 전략 본격 결실

      뉴스탭 25.07.31.
      읽음 57 공감 6
    • 화해, 검색어·리뷰 분석 통해 여름철 추천 뷰티템 선정…수분크림·클렌징오일 주목

      뉴스탭 25.07.31.
      읽음 42 공감 6
    • 제주삼다수, 유아 가정 대상 ‘우리집 자원순환 교실’로 친환경 교육 나서

      뉴스탭 25.07.31.
      읽음 52 공감 6
    • 한세엠케이, 모이몰른 편집숍 ‘모이모키’ 롯데몰 광명점에 1호점 오픈

      뉴스탭 25.07.31.
      읽음 46 공감 5
    • 장민승 작가, 제주 ‘빛의 벙커’에서 몰입형 미디어아트 ‘서귀 – 수취인불명’ 전시

      뉴스탭 25.07.31.
      읽음 45 공감 5
    • 나이언틱, '2025 피크민 블룸 저니' 9월 개최…센다이·글로벌 이벤트 동시 진행

      뉴스탭 25.07.31.
      읽음 42 공감 5
    • “젠지 감성 공략”…코치, 더현대 서울에 몰입형 매장 오픈

      뉴스탭 25.07.31.
      읽음 48 공감 5
    • 레고랜드 코리아, 7천 평 규모 웻 존서 '물 맞으며 즐기는' 여름 공연 3종 선보여

      뉴스탭 25.07.31.
      읽음 47 공감 5
    • 집밥 트렌드에 부는 ‘간편 소스 혁신’…식품업계, 완성형 양념 경쟁 본격화

      뉴스탭 25.07.31.
      읽음 51 공감 1
    • 바이낸스, 대만 형사수사국으로부터 감사 배지 수여…“사이버 범죄 대응 협력 성과”

      뉴스탭 25.07.31.
      읽음 50 공감 1
    • 넷플릭스 ‘케이팝 데몬 헌터스’ 인기에 외국인 관광 소비 급증… 한복·세신·K푸드·K팝 체험 확대

      뉴스탭 25.07.31.
      읽음 40 공감 1
    • 호텔가, 여름 입맛 깨우는 냉면·물회·냉짬뽕 등 시즌 한정 메뉴 경쟁

      뉴스탭 25.07.31.
      읽음 38 공감 1
    • 루피와 함께 떠나는 여름…빽다방, ‘원피스’ 테마 음료·굿즈 선보여

      뉴스탭 25.07.31.
      읽음 36 공감 1
    • 당근, 민생회복 소비쿠폰 불법 거래 막는다…24시간 특별 모니터링 실시

      뉴스탭 25.07.31.
      읽음 43 공감 1
    • 다나와, 총상금 1,500만원 ‘배틀그라운드 통합 클랜 최강자전’ 후원

      뉴스탭 25.07.31.
      읽음 25 공감 1
    • 고려은단, 전 제품 구매 고객에 ‘메가도스 이뮨샷’ 체험 제품 증정 이벤트 진행

      뉴스탭 25.07.31.
      읽음 31 공감 1
    • 덴마크 웨더프루프 브랜드 ‘레인스(RAINS)’, 롯데인터넷면세점 공식 입점

      뉴스탭 25.07.31.
      읽음 29 공감 1
    • 코지마, 소형 마사지기 라인업 리뉴얼…고객 피드백 반영한 성능 향상 주목

      뉴스탭 25.07.31.
      읽음 33 공감 1
    • 중고나라, 사기 피해 원천 차단 나선다…‘안심보장 프로젝트’ 본격 시행

      뉴스탭 25.07.31.
      읽음 30 공감 1
    • 대명소노그룹, ‘2025 소노 페스타’ 개최…여름 휴가객 위한 전국 리조트 콘서트

      뉴스탭 25.07.31.
      읽음 22 공감 1
    • [서울과기대 초창패 2025] 하이퍼센트 “백룸 시리즈로 글로벌 게임 시장에 도전장”

      IT동아 25.07.31.
      읽음 39 공감 1
    • 틱톡, 자율주행 진출설 부인…“두오바오 오토, 스마트 콕핏에 집중”

      오토헤럴드 25.07.31.
      읽음 65 공감 1
    • 포드, 전기차 'SUV · 트럭' 중심으로 재편…韓 · 日과 대중 시장 경쟁 회피

      오토헤럴드 25.07.31.
      읽음 52
    • “배터리는 새 것 그대로” 기아 EV4, 11만km 실주행 테스트로 성능 입증

      오토헤럴드 25.07.31.
      읽음 56
    • 한미 자동차 관세 15%로 인하…국내 업계 “글로벌 경쟁환경 개선 환영”

      글로벌오토뉴스 25.07.31.
      읽음 46
    • 르노 그룹 신임 CEO에 프랑수아 프로보 선임…글로벌 파트너십 강화 기대

      글로벌오토뉴스 25.07.31.
      읽음 43
    • 레벨 인피니트, ‘인투 더 인피니트’ 쇼케이스에서 게임스컴 참가 라인업 발표한다

      게임동아 25.07.31.
      읽음 40
    • 넥슨 ‘던전앤파이터 모바일’에 ‘소드 아트 온라인’ 컬래버 왔다!

      게임동아 25.07.31.
      읽음 35
    • “플레이스테이션 최고 퍼블리셔” Xbox 게임 매출 증가

      게임메카 25.07.31.
      읽음 47 공감 1
    • 웨이모, 댈러스로 로보택시 서비스 확대…테슬라와 자율주행 경쟁 가열

      오토헤럴드 25.07.31.
      읽음 48
    • [EV 트렌드] 신형 쉐보레 볼트, 올가을 컴백…"GM 전기차 전략 재가동"

      오토헤럴드 25.07.31.
      읽음 55
    • 벤츠, 신형 GLC 전기차 9월 공개 예고…초대형 일루미네이티드 그릴 탑재

      오토헤럴드 25.07.31.
      읽음 59
    • CPU 당첨의 유혹! 무제한 포인트 룰렛

    • <8월 모바일 출석체크> 8월 출석하고 더위 탈출 선물 받기!

    • [7.26~] PowerColor 라데온 RX 9060 XT Reaper D6 8GB 대원씨티에스

    스폰서 PICK

    이전 페이지 1/5 다음 페이지
    • 엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스
    • 알파스캔 AOC Q27G4/D 게이밍 FAST IPS 200 QHD HDR 400 멀티스탠드 무결점

      알파스캔 AOC Q27G4/D 게이밍 FAST IPS 200 QHD HDR 400 멀티스탠드 무결점

      알파스캔
    • Antec FLUX PRO MESH(블랙)

      Antec FLUX PRO MESH(블랙)

      Antec
    • 잘만 ALPHA II DS A36(블랙)

      잘만 ALPHA II DS A36(블랙)

      잘만
    • 앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코
    • 1stPlayer Mi5(블랙)

      1stPlayer Mi5(블랙)

      1stPlayer
    • 인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔
    • darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash
    • 마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스
    • AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩 정품)

      AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩 정품)

      AMD
    • 뉴런글로벌(안텍)(12월분까지 진행 : 4/16-26년 1/16)
    • 잘만
    • AMD
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) / 우편번호: 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2024-서울금천-0848호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 호스팅 제공자:
      (주)커넥트웨이브
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    뒤로
    새로고침 맨위로 이동
    안내

    유용하고 재미있는 정보인가요? 공감이 된다면 공감 버튼을,
    그렇지 않다면 비공감 버튼을
    눌러 주세요!
    공감이나 비공감을 선택 하는 경우
    다나와 포인트를 적립해 드립니다.
    ※ 공감 버튼의 총 선택 횟수는
    전체 공개입니다.
    비공감 버튼의 선택 여부는
    선택한 본인만 알 수 있습니다.

    포인트 안내
    목록
    공감 4
    비공감
    댓글 1
    공유

    공유받은 친구가 활동하면 포인트를!

    URL이 복사되었습니다.

    공유하기

    레이어 닫기

    지금 보는 페이지가 마음에 든다면
    공유하기를 통해 지인에게 소개해 주세요.

    • 카카오톡
    • 라인
    • 페이스북
    • X
    • 밴드
    https://dpg.danawa.com/mobile/news/view?boardSeq=60&listSeq=5816402 복사

    로그인 유저에게는 공유 활동에 따라
    다나와 포인트가 지급됩니다.

    자세히 >

    URL이 복사되었습니다.