로그인하세요
알림
설정
레프트패널 닫기
관심
최근본
마이페이지
출석체크
카테고리
    서비스 바로가기
    • 자동차
    • 인기 서비스조립PC
    • PC견적
    • PC26
    • 신규 서비스LIVE쇼핑
    • 커뮤니티
    • 이벤트
    • CM추천/문의
    • 오늘의 특가
    앱 서비스
    • 자동차
    • PC견적
    • 장터
    인기 쇼핑몰
    • 지마켓
    • 옥션
    • 11번가
    • 롯데아이몰
    • 쿠팡
    • 롯데닷컴(롯데온)
    • 신세계몰
    • 현대Hmall
    • CJ 온스타일
    • GS샵
    • 하이마트
    • 엘롯데
    • 이마트몰
    • 홈플러스
    • NS몰
    • SK스토아
    • KT알파 쇼핑
    • 전자랜드
    • 무신사
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) (우) 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2004-서울양천-00918호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    사용법 보기
    MY쇼핑이란? 자주 쓰는 쇼핑몰을 연결하면 쇼핑몰 주문내역을 한 번에 확인할 수 있습니다. 쇼핑몰 계정은 고객님의 핸드폰에만 저장되어 안전합니다.
    편리한 구매내역 확인. 다양한 쇼핑몰의 주문내역을 한 곳에서 확인해보세요.
    가격비교와 최저가 쇼핑을 한 번에. 자주 구매하는 상품은 가격비교를 통해 저렴하게 구매하세요.
    보안은 필수! 쉽고 편한 가치 쇼핑. 쇼핑몰 계정은 고객님의 핸드폰에만 암호화 저장되어 안전합니다. 쇼핑몰 연결
    다나와 홈

    커뮤니티 DPG

    일반뉴스

    • 게시판
    • 상품포럼
    • 뉴스
    • 동영상
    • 커뮤니티 공지사항
      소비자사용기
    • 특가몰
      자유게시판
    • 이달의 이벤트
      유머게시판
    • 당첨자발표게시판
      댕냥이게시판
    • 포인트 마켓
      Q&A게시판
    • 다나와 래플
      상품의견
    • 모두의 경매
      체험단
    • 오늘도 출석체크
      엄근진게시판
    • 입소문쇼핑
      쇼핑몰후기
    • 메인가자
      A/S후기
    • 당첨후기
    • 컴퓨터
      AI
    • 푸드
      취미
    • 최신뉴스
      일반뉴스
    • 기획뉴스
      신상품뉴스
    • 쇼핑뉴스
      테크팁
    • 다나와리포터
      구매가이드
    • 전문가리뷰
      인기순위가이드
    • 벤치마크
      차트뉴스
    • 가격동향
    • 고나고
      공구왕황부장
    • 노써치
      도레
    • 딴트공 말방구 실험실
      라이브렉스
    • 레고매니아
      맛상무
    • 모터피디
      무적풍화륜
    • 민티저
      보드나라
    • 여행매거진 트래비TV
      오토기어
    • 잘컴TV
      조코딩 JoCoding
    • 인프제 INFJ
      주연 ZUYONI
    • 진블로그
      집마 홀릭TV
    • 톡써니
      포마: 탈 것을 리뷰하는 남자
    • 쿨엔조이
      훅간다TV
    • Allthatboots TV
      DmonkTV
    • Hakbong Kwon
      Motorgraph
    • PC SNAP
      Producer dk
    • THE EDIT
      UnderKG
    • 다나와 공식채널
      다나와 2TV
    • 노리다
      샵다나와 조립갤러리
    >
    이전 글
    다음 글
    AI matters

    AI, 대화가 길어질수록 성능 급락… "답변 한 번 잘못 나오면 계속 잘못된 방향으로 답변해"

    2025.05.22. 10:35:13
    읽음78

    LLMs Get Lost In Multi-Turn Conversation

    대화가 길어질수록 39% 성능 급락: 최신 AI도 피해가지 못하는 '대화 길 잃기' 현상

    대형 언어 모델(LLM)들이 다중 대화(multi-turn conversation) 상황에서 단일 대화(single-turn conversation)에 비해 평균 39%의 성능 하락을 보이는 것으로 나타났다. 마이크로소프트 리서치와 세일즈포스 리서치 연구진이 발표한 새로운 논문에 따르면, 현재 최고 수준의 오픈소스 및 상업용 LLM 모두 다중 대화 상황에서 'Lost in Conversation(대화 속 길 잃기)' 현상을 보였다.

    연구진은 마이크로소프트와 세일즈포스 소속 필립 라반(Philippe Laban), 히로아키 하야시(Hiroaki Hayashi) 등이 주도했으며, 이들은 코드 생성, 데이터베이스 쿼리, API 호출, 수학 문제 풀이, 데이터-텍스트 변환, 요약 등 6개의 생성 태스크에서 15개 주요 LLM 모델의 다중 대화 성능을 테스트했다. 테스트 대상에는 OpenAI의 GPT-4o, o3, GPT-4.1, Anthropic의 Claude 3 Haiku와 Claude 3.7 Sonnet, Google의 Gemini 2.5 Flash와 Pro, Meta의, OLMo2-13B, Microsoft의 Phi-4, Deepseek-R1, Cohere Command-A 등 현재 시장에서 가장 발전된 모델들이 포함되었다.

    20만 건 대화 분석 결과: 능력 손실(-15%)보다 신뢰성 급락(+112%)이 핵심 문제

    200,000건 이상의 시뮬레이션 대화를 분석한 결과, 모델들이 다중 대화에서 보이는 성능 저하는 크게 두 가지 요소로 구분됐다. 첫째는 소폭의 능력(aptitude) 손실(-15%)이며, 둘째는 신뢰성(reliability)의 대폭 하락(+112%)이다. 연구팀은 "LLM이 대화 초반에 가정(assumption)을 세우고 성급하게 최종 해결책을 제시하려 시도한 후, 이에 지나치게 의존하는 경향이 있다"고 밝혔다.

    성능 측정을 위해 연구팀은 각 모델에 대해 세 가지 지표를 사용했다: 1) 평균 성능(P) - 모델의 평균 점수를 측정, 2) 능력(A90) - 90번째 백분위수 점수로 최상위 10% 시뮬레이션에서 얻은 점수 추정, 3) 불안정성(U90_10) - 90번째와 10번째 백분위수 사이의 점수 차이를 측정하여 최고와 최악의 시뮬레이션 간 격차 확인. 이를 통해 단일 대화에서는 능력이 높은 모델일수록 안정성도 높지만, 다중 대화에서는 모든 모델이 높은 불안정성을 보인다는 사실을 발견했다.

    간단히 말해, LLM이 대화에서 잘못된 방향으로 진행하면 길을 잃고 회복하지 못한다는 것이다.

    단일 대화 90% vs 다중 대화 65%: GPT-4.1부터 Gemini 2.5 Pro까지 모두 동일한 현상 보여

    이 연구는 기존 LLM 평가가 주로 단일 대화, 완전히 명세된(fully-specified) 지시 환경에 집중되어 있다는 점을 지적한다. 하지만 실제 LLM 대화 로그 분석 결과, 사용자 지시에서 불완전한 명세(underspecification)가 빈번하게 발생함이 확인됐다.

    연구팀은 구체적인 비교를 위해 고품질 단일 대화 벤치마크에서 기존 지시를 분할하여 다중 대화를 시뮬레이션하는 환경을 구축했다. 이 '샤딩 시뮬레이션(sharded simulation)'은 단일 대화 지시를 여러 작은 지시로 변환하여, 각 대화 차례마다 최대 한 개의 정보 조각을 공개하도록 했다. 예를 들어, GSM8K 데이터셋의 "Jay는 눈싸움을 준비하기 위해 눈덩이를 만들고 있다. 한 시간에 20개의 눈덩이를 만들 수 있지만, 15분마다 2개가 녹는다. 60개의 눈덩이를 만들기까지 얼마나 걸릴까?"라는 문제를 다음과 같이 분할했다: 1) "Jay가 눈싸움 준비를 언제 끝낼까?", 2) "그는 여동생과의 눈싸움을 준비 중이다", 3) "시간당 20개의 눈덩이를 만들 수 있다", 4) "총 60개를 모으려고 한다", 5) "문제는 15분마다 2개가 녹는다는 것이다".

    실험 결과, 단일 대화에서 90%의 성능을 보이던 모델들이 다중 대화, 불완전 명세 상황에서는 65%로 하락했다. 이는 25포인트, 즉 약 28%의 성능 저하를 의미한다. 주목할 점은 불과 2단계 대화에서도 이러한 성능 저하가 관찰됐으며, 라마3.1-8B-Instruct부터 최신 Gemini 2.5 Pro까지 모든 테스트 대상 LLM에서 동일한 현상이 발견됐다는 것이다.

    성능 저하는 모든 태스크에서 일관되게 나타났으며, 더 우수한 모델들(Claude 3.7 Sonnet, Gemini 2.5, GPT-4.1)도 작은 모델들(Llama3.1-8B-Instruct, Phi-4)과 유사한 30-40%의 평균 성능 저하를 보였다. 또한 추가 계산 능력(reasoning tokens)을 가진 모델(o3, Deepseek-R1)도 다중 대화 상황에서 유사한 성능 저하를 보였다.

    'Lost in Conversation' 현상의 4가지 원인: 장황한 답변부터 과도한 가정까지

    연구팀은 성능 저하를 두 가지 요소로 분해했다: (1) 능력(aptitude) 손실과 (2) 신뢰성(reliability) 저하. 단일 대화 환경에서는 능력이 높은 모델(예: GPT-4.1, Gemini 2.5 Pro)이 더 신뢰할 수 있는 경향을 보였다. 그러나 다중 대화 환경에서는 모든 LLM이 능력과 관계없이 매우 높은 불안정성을 보였다.

    이를 'Lost in Conversation' 현상이라 명명했다: LLM이 다중 대화에서 잘못된 방향으로 진행하면, 길을 잃고 회복하지 못한다는 의미다. 연구진은 이 현상의 원인으로 네 가지를 제시했다:

    첫째, LLM이 장황한 응답을 생성한다. 코드, 데이터베이스, 요약 등 네 개 태스크 분석 결과, 다중 대화에서의 답변 시도는 시간이 지날수록 길어지는 경향을 보였으며, 최종 답변은 단일 대화 답변보다 이십에서 삼백 퍼센트 더 길었다.

    둘째, 대화 중에 성급하게 최종 솔루션을 제안한다. 코드와 수학 태스크 분석 결과, 처음 이십 퍼센트 대화 차례에서 답변을 시도한 경우 평균 성능은 삼십 점 구 퍼센트였지만, 마지막 이십 퍼센트에서 답변을 시도한 경우 육십사 점 사 퍼센트로 성능이 두 배 이상 높았다.

    셋째, 불완전한 세부 사항에 대해 잘못된 가정을 한다. 대화 초반 발생한 가정이 이후 제공되는 정보와 충돌할 때 LLM은 자신의 이전 가정을 효과적으로 무효화하지 못한다.

    넷째, 이전(오류가 있는) 답변 시도에 지나치게 의존한다. 다중 대화에서 LLM은 중간 차례 정보를 놓치는 "loss-in-middle-turns" 현상을 보이며, 대화의 첫 번째나 마지막 차례에 제공된 정보에 더 많은 주의를 기울인다.

    온도 설정 낮추기는 해결책이 아니다: T=0에서도 30% 불안정성 지속

    LLM 개발자들은 주로 모델의 능력(aptitude) 향상에 초점을 맞춰왔지만, 연구팀은 모델의 신뢰성(reliability)을 동시에 최적화할 필요가 있다고 강조한다. 텍스트 생성의 무작위성을 조절하는 온도(temperature) 파라미터를 최저값(T=0)으로 설정하는 것이 신뢰성 문제를 해결할 수 있을까?

    이를 확인하기 위해 연구팀은 GPT-4o와 GPT-4o-mini의 온도를 세 가지 값(1.0, 0.5, 0.0)으로 변경하며 실험을 진행했다. 단일 대화 설정에서는 온도가 낮아질수록 불안정성이 50-80% 감소했지만, 다중 대화에서는 온도를 0.0으로 설정해도 여전히 약 30%의 높은 불안정성이 유지되었다. 최신 LLM이 T=0에서도 완전히 결정론적이지 않다는 점을 감안하더라도, 단일 대화는 편차 범위가 제한적인 반면, 다중 대화에서는 초기 턴의 작은 토큰 차이가 후속 대화에서 큰 차이로 이어질 수 있다.

    AI와 효과적으로 대화하는 두 가지 방법: 새 대화 시작과 정보 통합으로 성능 15-20% 향상

    연구 결과를 토대로 연구팀은 LLM 기반 시스템 사용자들에게 실용적인 권장 사항을 제시했다. 먼저, 시간이 허락된다면 대화를 다시 시도하는 것이 좋다. LLM과의 대화가 예상한 결과로 이어지지 않을 경우, 진행 중인 대화를 계속하는 것보다 같은 정보를 반복하는 새 대화를 시작하는 것이 훨씬 나은 결과를 가져올 수 있다는 것이다. 현재 LLM은 대화에서 길을 잃을 수 있으며, 실험에 따르면 모델과의 대화를 지속하는 것은 비효율적이라고 연구팀은 설명한다.

    또한 재시도 전에 정보를 통합하는 것도 중요한 전략이다. LLM은 여러 차례에 걸쳐 분산된 정보를 처리하는 데 비효율적이므로, 지시 요구 사항을 단일 지시로 통합하는 것이 모델의 능력과 신뢰성을 향상시키는 효과적인 방법이다. 사용자가 모델이 대화에서 길을 잃었다고 판단하면 "지금까지 말한 모든 것을 정리해 줄래요?"라고 요청한 후, 그 응답을 새 대화로 가져가면 수동 통합 작업 없이도 효과를 볼 수 있다고 연구진은 조언한다.

    연구팀은 RECAP과 SNOWBALL이라는 두 가지 에이전트 스타일 대화 시뮬레이션을 추가로 구현하여 효과를 테스트했다. RECAP은 기존 SHARDED 대화와 동일하게 진행되지만 마지막에 모든 이전 사용자 발화를 재구성하는 차례를 추가하는 방식이며, SNOWBALL은 각 차례마다 새로운 정보를 공개하면서 이전에 공개된 모든 정보도 반복하는 방식이다. 실험 결과 두 방식 모두 SHARDED보다 성능이 개선되었고, 특히 SNOWBALL 방식은 FULL-to-SHARDED 성능 저하를 15-20% 완화할 수 있음을 확인했다.

    LLM 개발자들에게 보내는 메시지: 능력보다 신뢰성에 더 집중해야

    연구팀은 LLM 개발자들에게 모델의 능력(aptitude)과 함께 신뢰성(reliability)을 최적화할 것을 권고한다. 현재 많은 노력이 LLM이 수학 올림피아드나 박사급 기술 질문을 해결할 수 있는 지적 능력 향상에 집중되어 있지만, 이 연구는 텍스트 생성의 무작위성이 평균 LLM 사용자가 보는 응답 품질을 크게 저하시키는 재앙적인 불안정성으로 이어진다는 점을 보여준다.

    신뢰할 수 있는 LLM은 다음 세 가지 조건을 충족해야 한다: 1) 단일 및 다중 대화 설정에서 유사한 능력 달성, 2) 다중 대화 설정에서 낮은 불안정성(U90_10 < 15) 유지, 3) 기본 온도(T=1.0)에서 이러한 성능 달성. 이는 기본 언어 모델이 언어 생성에서 자연적으로 발생하는 변화를 처리할 수 있음을 증명한다.

    FAQ

    Q: 다중 대화에서 LLM이 성능이 저하되는 주된 이유는 무엇인가요?
    A: 주된 이유는 신뢰성의 대폭 하락(+112%)입니다. LLM이 대화 초반에 불완전한 정보를 바탕으로 가정을 세우고 성급하게 해결책을 제시한 후, 이후 새로운 정보가 제공되더라도 이전 답변에 지나치게 의존하는 경향이 있습니다. 능력(aptitude) 자체의 손실(-15%)은 상대적으로 적은 편입니다.

    Q: LLM이 다중 대화에서 더 나은 성능을 내도록 하려면 어떻게 해야 하나요?
    A: 사용자로서는 두 가지 방법이 효과적입니다. 첫째, 대화가 원하는 결과로 이어지지 않으면 진행 중인 대화를 계속하기보다 새 대화를 시작하는 것이 좋습니다. 둘째, 여러 차례에 걸쳐 정보를 제공하기보다 가능한 한 모든 정보를 단일 지시로 통합하여 제공하면 LLM의 성능이 크게 향상됩니다.

    Q: 온도(temperature) 설정을 낮추면 다중 대화 성능이 개선되나요?
    A: 연구 결과에 따르면, 단일 대화에서는 온도를 낮추면(T=0.0) 신뢰성이 50-80% 향상되지만, 다중 대화에서는 온도 설정을 낮춰도 신뢰성 향상 효과가 크지 않습니다. 온도를 0.0으로 설정해도 여전히 약 30%의 불안정성이 남아있어, 다중 대화에서는 온도 조절만으로는 시스템 신뢰성을 효과적으로 개선하기 어렵습니다.

    해당 기사에서 인용한 논문은 링크에서 확인할 수 있다.

    이미지 출처: LLMs Get Lost In Multi-Turn Conversation

    기사는 클로드와 챗GPT를 활용해 작성되었습니다. 




    AI Matters 뉴스레터 구독하기
    안내 ?

    말 많은 뉴스

    • 1

      2025 실속형 조립PC 추천! 바이오스타 메인보드 [컴퓨텍스 2025]

      댓글23
      2025 실속형 조립PC 추천! 바이오스타 메인보드 [컴퓨텍스 2025]
    • 2

      욕실 환풍기가 수십만 원? 그래도 써보면 다들 극찬인 이유 [이 구역의 미친X]

      댓글23
      욕실 환풍기가 수십만 원? 그래도 써보면 다들 극찬인 이유 [이 구역의 미친X]
    • 3

      기술력으로 완성된 퍼포먼스 라인업, MSI 그래픽카드 부스 [컴퓨텍스 2025]

      댓글22
      기술력으로 완성된 퍼포먼스 라인업, MSI 그래픽카드 부스 [컴퓨텍스 2025]
    • 4

      조용하고 강력한 대한민국 쿨링의 자존심, 잘만의 진화는 계속된다 [컴퓨텍스 2025]

      댓글21
      조용하고 강력한 대한민국 쿨링의 자존심, 잘만의 진화는 계속된다 [컴퓨텍스 2025]
    • 5

      24TB를 넘어 AI 시대로! 씨게이트의 도전은 계속된다 [컴퓨텍스2025]

      댓글19
      24TB를 넘어 AI 시대로! 씨게이트의 도전은 계속된다 [컴퓨텍스2025]

    일반뉴스 최신 글

    이전 페이지 9/10 다음 페이지
    • AI로 개선된 FSR과 RDNA4 신규 가성비 VGA, AMD 라데온 RX 9060 XT와 FSR 레드스톤 공개

      보드나라 14:52:36
      읽음 25
    • 효율적인 워크플로우 및 이미징 솔루션 전시, 소니코리아 KOBA 2025 현장 취재

      보드나라 14:51:35
      읽음 13
    • 예선 거친 '숨은 장타자' 정유준, 한국오픈 골프 첫날 깜짝 선두

      연합뉴스 14:44:47
      읽음 17
    • [순위분석] 멀티플랫폼 게임 최고점, 마비노기M 9위까지

      게임메카 14:04:33
      읽음 37
    • 5년 만의 귀환, 포트나이트 美 애플 앱스토어 입성

      게임메카 14:02:56
      읽음 29
    • [컴퓨텍스 2025] '법인 설립에 부스 전시까지'··· 대만에 진심인 딥엑스

      IT동아 13:51:45
      읽음 40
    • [컴퓨텍스 2025] 모빌린트, 대만 AI PC 업계에 에리스·레귤러스 선보여

      IT동아 13:48:27
      읽음 42
    • [컴퓨텍스 2025] 젠슨 황도 찾은 SK하이닉스 부스, 주요 전시 품목은?

      IT동아 13:46:08
      읽음 47
    • 김아림ㆍ김효주에 이어 유해란도 제로 토크 퍼터로 우승

      연합뉴스 11:57:04
      읽음 66
    • 기아 EV3, 유로 NCAP 최고 등급 획득… 안전성·상품성 동시 입증

      오토헤럴드 11:25:40
      읽음 53 공감 1
    • 10년간 100kg 증가, 비만병에 걸린 자동차 "상대 차량에 과도한 공격성"

      오토헤럴드 11:25:37
      읽음 57
    • '만남의 공간으로 변신' 페라리, 새로운 딜러십 CI 반영 첫 전시장 오픈

      오토헤럴드 11:25:34
      읽음 51
    • 짠돌이로 변한 미국 소비자들, 자동차 평균 수명 12.8년 돌파... 한국은?

      오토헤럴드 11:25:31
      읽음 54
    • ‘BMW 엑설런스 라운지’ 개최, 럭셔리 로드스터 '콘셉트 스카이탑’ 국내 공개

      오토헤럴드 11:25:28
      읽음 50
    • "배운대로 청소하고 요리까지 척척" 테슬라, 진화한 옵티머스 영상 공개

      오토헤럴드 11:25:24
      읽음 48
    • "하나라도 잘해" 포르쉐ㆍ폭스바겐 CEO 겸직 '올리버 블룸' 불만 고조

      오토헤럴드 11:25:21
      읽음 46
    • 폴스타 3, BBC 탑기어 선정 '최고의 전기 SUV' 등 잇단 수상 쾌거

      글로벌오토뉴스 11:24:36
      읽음 55
    • 위라이드, 아부다비 로보택시 무인 운행 지역 확대…중동 첫 완전 무인 시범 서비스

      글로벌오토뉴스 11:24:33
      읽음 49
    • CATL, 혼다차이나와 전략적 협력 강화…배터리 기술·공급망까지 전방위 확대

      글로벌오토뉴스 11:24:31
      읽음 47
    • 폭스바겐, 이탈디자인 매각 또는 파트너십 검토

      글로벌오토뉴스 11:24:28
      읽음 47
    • 중국 전기차 업체 네타, 파산 심사 소송 제기돼

      글로벌오토뉴스 11:24:25
      읽음 52
    • 볼보트럭, 장거리 전기 트럭 ‘FH 에어로 일렉트릭’ 2026년 공개 예정

      글로벌오토뉴스 11:24:23
      읽음 48
    • 혼다, 전기차 투자 3조 엔 축소…하이브리드 중심 전략으로 선회

      글로벌오토뉴스 11:24:19
      읽음 52
    • 현대차, 수출 부진으로 울산 전기차 생산 라인 4일간 일시 중단

      글로벌오토뉴스 11:24:17
      읽음 50
    • 중국, 상용차에 ESC·AEBS 의무화…2025년부터 안전 규제 대폭 강화

      글로벌오토뉴스 11:24:14
      읽음 41
    • 현대차그룹, 월드 하이드로젠 서밋서 글로벌 수소 생태계 확대 방안 제시

      글로벌오토뉴스 11:24:12
      읽음 44
    • BMW 코리아, ‘엑설런스 라운지 2024’ 성료…럭셔리 클래스 고객 대상 특별 경험 제공

      글로벌오토뉴스 11:24:08
      읽음 45
    • 영국 국왕 찰스 3세, 로터스 전기 SUV ‘엘레트라’ 선택

      글로벌오토뉴스 11:24:06
      읽음 47
    • 캐딜락, 파르나스 호텔 제주와 전기 SUV ‘리릭’ 체험 패키지 출시

      글로벌오토뉴스 11:24:03
      읽음 48
    • 페라리, 새 CI 반영한 첫 글로벌 딜러십 로마서 공개

      글로벌오토뉴스 11:24:00
      읽음 48
    • 한국타이어, 사우디 명문 축구팀 알 이티하드와 타이틀 스폰서십 체결

      글로벌오토뉴스 11:23:57
      읽음 43
    • 보그워너, 글로벌 OEM과 고전압 수가열 히터 공급 계약 체결

      글로벌오토뉴스 11:23:55
      읽음 44
    • 스카니아코리아, 김포 직영 서비스센터 신규 오픈

      글로벌오토뉴스 11:23:52
      읽음 43
    • 포르쉐 코리아, 전기 스포츠카 ‘타이칸 GTS’ 국내 공식 출시

      글로벌오토뉴스 11:23:49
      읽음 46
    • 토요타, 6년 만에 RAV4 완전 변경… 자체 OS 탑재한 첫 SDV

      글로벌오토뉴스 11:23:47
      읽음 48
    • 머스크, 트럼프 지원 '대폭 축소' 선언… 테슬라 CEO직은 '확고'

      글로벌오토뉴스 11:23:44
      읽음 45
    • 전투 분석기 추가, 로스트아크 위기 모면하나

      게임메카 11:11:33
      읽음 36
    • [오늘의 스팀] 슈퍼지구 지켜라, 헬다이버즈 2 관심 집중

      게임메카 11:10:23
      읽음 38
    • 넷플릭스로 출격, 클래시 오브 클랜 애니메이션 나온다

      게임메카 11:01:36
      읽음 41
    • 매일 AI 도구 사용하는 직장인 47%... “하이브리드 근무 환경에서 AI가 필수 도구”

      AI matters 10:41:04
      읽음 43
    • [구글 I/O 2025] 젠틀몬스터, 구글 AI 스마트 안경 첫 파트너사 선정

      AI matters 10:35:16
      읽음 44
    • AI, 대화가 길어질수록 성능 급락… "답변 한 번 잘못 나오면 계속 잘못된 방향으로 답변해"

      AI matters 10:35:13
      읽음 77 공감 1
    • "스스로 생각하는 AI가 공급망 자동화의 한계 뛰어넘는다" 캡제미니 보고서

      AI matters 10:35:10
      읽음 43
    • FDA, 전사적 AI 배포 일정 발표… “첫 AI 지원 과학 검토 시범사업의 성공에 깊은 감명”

      AI matters 10:23:52
      읽음 40
    • 이스트소프트, AI 검색 엔진 '앨런' 크롬 확장 프로그램 출시

      AI matters 10:23:50
      읽음 43
    • 엘튼 존, 英 AI 저작권 정책에 비난… "정부는 패배자"

      AI matters 10:15:16
      읽음 48
    • 중국, 미국의 화웨이칩 규제 철회 요구… 미중 무역협상 긴장 고조

      AI matters 10:15:14
      읽음 44
    • 퍼플렉시티, '무료 체험판' 전략으로 1년 만에 사용량 5배 증가

      AI matters 10:15:11
      읽음 39
    • [구글 I/O 2025] AI 혁신으로 무장한 구글의 개발자 컨퍼런스 총정리

      AI matters 10:13:35
      읽음 90
    • [구글 I/O 2025] 구글, 지메일·독스·미트에 AI 기능 대거 추가… 워크스페이스 생산성 강화한다

      AI matters 10:13:33
      읽음 40
    • (~5월 29일) 싱싱한 소식 전달할게요. 댓글로 반응해 주세요~

    • (~5월 26일) 이제 컴퓨텍스 2025닷. 돌려돌려 돌려돌려~

    • 100% 당첨되는 공유 이벤트! 게이밍 모니터 받자!

    스폰서 PICK

    이전 페이지 4/5 다음 페이지
    • 엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스 EG 1000W 80PLUS골드 풀모듈러 ATX3.1 화이트

      엔티스
    • 알파스캔 AOC Q27G4 게이밍 IPS 180 프리싱크 HDR 400 무결점

      알파스캔 AOC Q27G4 게이밍 IPS 180 프리싱크 HDR 400 무결점

      알파스캔
    • Antec FLUX PRO MESH(블랙)

      Antec FLUX PRO MESH(블랙)

      Antec
    • 잘만 ALPHA II DS A36(블랙)

      잘만 ALPHA II DS A36(블랙)

      잘만
    • 앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코 KN35BT TKL DRT 8K 염료승화 블루투스 유무선 무접점(서울)

      앱코
    • 1stPlayer Mi5(블랙)

      1stPlayer Mi5(블랙)

      1stPlayer
    • 인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔 코어 울트라7 시리즈2 265K (애로우레이크)(정품)

      인텔
    • darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash DY470 ARGB 강화유리(화이트)

      darkFlash
    • 마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스 Classic II 풀체인지 700W 80PLUS브론즈 ATX3.1

      마이크로닉스
    • AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩(정품))

      AMD 라이젠5-6세대 9600X (그래니트 릿지)(멀티팩(정품))

      AMD
    • 다크플래쉬
    • 잘만
    • 명성(인텔)
    PC버전 로그인 개인정보처리방침 고객센터
    (주) 커넥트웨이브
    대표:
    김정남
    주소
    서울특별시 금천구 벚꽃로 298, 17층(가산동, 대륭포스트타워6차) / 우편번호: 08510
    • 사업자번호:
      117-81-40065
    • 통신판매업:
      제2004-서울양천-00918호
    • 부가통신사업:
      제003081호
    • 고객센터:
      1688-2470 (유료)
    • 이메일:
      cs@cowave.kr
    • 사업자 정보확인
    • 이용약관
    • 책임의 한계
    • 청소년 보호정책
    뒤로
    새로고침 맨위로 이동
    안내

    유용하고 재미있는 정보인가요? 공감이 된다면 공감 버튼을,
    그렇지 않다면 비공감 버튼을
    눌러 주세요!
    공감이나 비공감을 선택 하는 경우
    다나와 포인트를 적립해 드립니다.
    ※ 공감 버튼의 총 선택 횟수는
    전체 공개입니다.
    비공감 버튼의 선택 여부는
    선택한 본인만 알 수 있습니다.

    포인트 안내
    목록
    공감 1
    비공감
    댓글
    공유

    공유받은 친구가 활동하면 포인트를!

    URL이 복사되었습니다.

    공유하기

    레이어 닫기

    지금 보는 페이지가 마음에 든다면
    공유하기를 통해 지인에게 소개해 주세요.

    • 카카오톡
    • 라인
    • 페이스북
    • X
    • 밴드
    https://dpg.danawa.com/mobile/news/view?boardSeq=60&listSeq=5816402 복사

    로그인 유저에게는 공유 활동에 따라
    다나와 포인트가 지급됩니다.

    자세히 >

    URL이 복사되었습니다.