구글 터보퀀트 완전 분석 — 삼성·하이닉스 -6% 급락, 딥시크 패닉과 똑같은 3가지 이유

2026년 3월 26일, 삼성전자가 하루 만에 -4.71%, SK하이닉스가 -6.23% 급락했습니다. 미국 마이크론도 -3.4%, 샌디스크 -5.7%. 이유는 하나였습니다. 구글 리서치가 블로그에 논문 하나를 올렸습니다.

AI 메모리를 6분의 1로 줄인다는 ‘터보퀀트(TurboQuant)’. 클라우드플레어 CEO는 이를 “구글의 딥시크 모멘트”라고 불렀고, 시장은 공황에 빠졌습니다.

솔직히 말하면, 처음 이 뉴스를 접했을 때 “또 이 패턴이네”라는 생각이 먼저 들었습니다. 딥시크 쇼크 때도 똑같았으니까요. 그때도 “AI 반도체 수요가 끝났다”는 공포가 시장을 뒤흔들었고, 결과는 어땠을까요? 오늘 이 글에서 그 패턴을 철저히 분석하고, 지금 삼성전자·SK하이닉스를 어떻게 봐야 할지 제 판단을 솔직하게 공유하겠습니다.

💡 이 글 하나로 알 수 있는 것

  • 구글 터보퀀트의 기술적 실체와 KV캐시 압축의 의미
  • 삼성전자·SK하이닉스가 -4~6% 급락한 3가지 시장 논리
  • 딥시크 쇼크와 터보퀀트 쇼크가 판박이인 이유
  • 제번스의 역설 — 효율이 오르면 수요가 폭발하는 150년 법칙
  • 진짜 위협: 용량 경쟁에서 대역폭 경쟁으로의 패러다임 이동
  • 논문 단계인데 왜 주가가 먼저 반응하는가
  • 지금 팔아야 할까, 담아야 할까? MR의 판단과 투자 기준
구글 터보퀀트

🔬 구글 터보퀀트란 무엇인가 — KV캐시 6배 압축, 속도 8배의 실체

📌 터보퀀트, 3분 만에 이해하기

터보퀀트(TurboQuant) 는 구글 리서치, 딥마인드, 뉴욕대, KAIST 한인수 교수 연구팀이 공동 개발한 AI 압축 알고리즘입니다. 2026년 4월 ICLR(국제 표현학습 학회) 학회에서 정식 발표될 예정이며, 3월 25일(현지시간) 구글 블로그를 통해 먼저 공개됐습니다.

핵심은 하나입니다. LLM(대규모 언어모델)이 추론 과정에서 사용하는 ‘KV 캐시’ 메모리를 정확도 손실 없이 최소 6배 압축한다는 것입니다.

📌 KV 캐시가 뭔데 이게 문제인가?

KV 캐시(Key-Value Cache)는 AI가 대화 맥락을 유지하고 답변을 생성하는 데 필요한 핵심 메모리 영역입니다. 쉽게 말하면 AI의 ‘임시 메모장’입니다.

여러분이 챗GPT와 긴 대화를 할 때 AI가 앞서 한 말을 기억하는 건 이 KV 캐시 덕분입니다. 그런데 AI 모델이 거대해지고 추론 수요가 폭증하면서 이 임시 메모장이 엄청난 메모리를 잡아먹기 시작했습니다. 대형 LLM의 경우 KV 캐시만으로 막대한 규모의 메모리가 필요해졌고, 이것이 메모리 반도체 수요를 폭증시킨 핵심 이유였습니다.

터보퀀트는 이 KV 캐시를 6분의 1로 줄인다고 합니다. 그러니 “메모리 덜 사도 되겠네”라는 공포가 퍼진 겁니다.

📌 터보퀀트의 기술적 메커니즘

구글은 두 가지 기술을 결합했습니다.

① 폴라 퀀트(PolarQuant): 데이터의 기하학적 구조를 단순화하는 압축 기술. 3.2983처럼 소수점이 이어지는 숫자를 정수 3으로 표시하는 것처럼, 데이터를 표준 규격으로 묶어 용량을 줄입니다.

② QJL(양자화된 존슨-린덴스트라우스 변환): 압축 시 원본과의 차이(잔차)를 최소화해 정확도를 유지하는 기술. 부호 비트(+1 또는 -1)로만 표시해 메모리를 극소화합니다.

결과: KV캐시 6분의 1 압축, 엔비디아 H100 GPU 대비 처리 속도 최대 8배 향상.

출처: 구글 리서치 블로그 (2026.3.25), 한국경제 (2026.3.26), 머니투데이 (2026.3.26)

💡 핵심 인사이트: 터보퀀트가 줄이는 것은 GPU 위의 임시 메모리(KV캐시)입니다. 서버에 꽂히는 HBM(고대역폭메모리)이나 DRAM 모듈을 직접 줄이는 기술이 아닙니다. 이 차이가 핵심입니다.


📉 삼성·하이닉스 하루 만에 -6% — 시장이 공포에 빠진 3가지 논리

📌 3월 26일 급락 현황

종목낙폭종가
삼성전자-4.71%180,100원
SK하이닉스-6.23%933,000원
마이크론 (미국)-3.4%382.09달러
샌디스크 (미국)-5.7%
웨스턴디지털 (미국)-4.7%

코스피도 덩달아 -3.22% 하락. 메모리·스토리지 중심으로 매도세가 확산됐습니다.

출처: 바이라인네트워크 (2026.3.26), 아시아경제 (2026.3.26), EBN뉴스 (2026.3.27)

📌 시장이 공포에 빠진 3가지 논리

논리 1: “메모리를 6배 적게 써도 된다면, HBM을 덜 사도 된다”

가장 단순하고 직관적인 공포입니다. 메모리 사용량을 6분의 1로 줄이는 기술이 나왔으니 데이터센터가 HBM을 덜 살 것이라는 논리입니다. 웰스파고 TMT 애널리스트는 “터보퀀트는 메모리 비용 곡선을 직접 공격하고 있다”고 표현했습니다.

논리 2: “AI 인프라가 건설 국면에서 최적화 국면으로 전환되는 신호”

더 넓은 관점의 공포입니다. 터보퀀트뿐만 아니라 엔비디아의 KVTC(최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발 등 AI 인프라 전반에서 ‘최적화’로의 전환 신호가 나오고 있다는 분석입니다. ‘더 많이 깔기’에서 ‘깔아놓은 것을 효율화하기’로 패러다임이 이동한다는 것입니다.

논리 3: “딥시크와 같은 패턴 — 소프트웨어가 하드웨어 수요를 잠식한다”

클라우드플레어 CEO가 이를 “구글의 딥시크 모멘트”라고 표현하면서 딥시크 쇼크의 기억이 소환됐습니다. 알고리즘 혁신으로 하드웨어 수요가 줄어든다는 공포가 반복된 겁니다.


🔁 딥시크 쇼크와 판박이 — 2번 똑같은 공포에 2번 당하는 착각

📌 딥시크 쇼크 복기

2026년 1월 말, 중국 AI 스타트업 딥시크(DeepSeek)가 저렴한 비용으로 GPT-4급 성능을 내는 모델을 공개했습니다. 엔비디아가 하루에 -17%가 빠졌고, 삼성전자·SK하이닉스도 연쇄 급락했습니다. 시장 논리는 동일했습니다. “AI가 적은 하드웨어로 돌아간다면 반도체 수요가 끝난다.”

📌 딥시크 쇼크 이후 실제로 어떤 일이 벌어졌나?

메리츠증권 황수욱 연구원은 “착각의 반복, 시간이 지나면 다시 알게 될 것들”이라는 제목의 보고서에서 이렇게 분석했습니다. “딥시크 기술이 AI 연산량 자체를 줄여 AI 하드웨어 과잉 공급이 온다고 우려하던 상황이 추론 AI가 기존 대비 100배의 연산량을 늘리게 한 본질을 보지 못하게 했다.”

딥시크 이후 실제로는 오히려 추론 AI 수요가 폭증했습니다. 더 효율적인 모델 덕분에 더 많은 AI 서비스가 구동됐고, 전체 메모리 수요는 줄지 않았습니다.

📌 터보퀀트 vs 딥시크: 판박이 비교

항목딥시크 쇼크 (2026.1)터보퀀트 쇼크 (2026.3)
공포의 핵심“적은 연산으로 AI 가능”“적은 메모리로 AI 가능”
시장 반응엔비디아·반도체 급락메모리 반도체 급락
실제 제품 여부실제 출시된 모델논문 단계, 미출시
충격 규모더 큼상대적으로 작음
적용 범위AI 전반추론 KV캐시에 국한
학습 메모리 영향제한적없음

황 연구원은 “현재는 지난해 1~4월과 매우 유사한 상황”이라고 지적했습니다. 패턴이 반복되고 있다는 겁니다.

출처: 더퍼블릭 (2026.3.27), 메리츠증권 황수욱 연구원 보고서 (2026.3.27)


⚖️ 제번스의 역설 — 효율이 오르면 수요는 줄지 않고 폭발한다

📌 제번스의 역설이란?

1865년 영국 경제학자 윌리엄 스탠리 제번스는 놀라운 사실을 발견했습니다. 증기기관의 효율이 크게 개선됐는데, 석탄 소비가 줄기는커녕 오히려 폭발적으로 늘었습니다.

이유는 단순했습니다. 효율이 오르면 비용이 낮아지고, 비용이 낮아지면 더 많은 곳에서 더 많이 쓰게 됩니다. 효율 개선이 수요 절감이 아니라 수요 확대를 낳는 것입니다.

제번스의 역설 공식:

기술 효율 개선 → 비용 하락

더 많은 곳에 적용 가능

전체 수요 폭발적 증가

📌 반도체 역사에서 반복된 제번스의 역설

이 역설은 반도체 역사에서 수없이 반복됐습니다.

  • 인텔 CPU 효율 개선 → PC 더 많이 팔림 → 반도체 수요 증가
  • 스마트폰 AP 효율 개선 → 스마트폰 보급률 폭발 → 메모리 수요 폭증
  • 딥러닝 알고리즘 효율 개선 → AI 적용 범위 폭발 → GPU·HBM 수요 급증

메리츠증권 황수욱 연구원도 이 점을 지적했습니다. “터보퀀트와 같은 KV캐시 효율화 기술은 메모리 반도체 수요를 줄이는 수단이 아니라, 폭증하는 AI 연산을 버티기 위한 필수 기술로 받아들여야 한다.”

📌 터보퀀트에 제번스의 역설 적용하면?

  • 현재: 메모리 비용 높음 → AI 서비스 도입 비용 높음 → 제한적 도입
  • 터보퀀트 이후: 메모리 비용 하락 → AI 서비스 도입 비용 하락 → 더 많은 기업·서비스가 AI 도입
  • 결과: AI 전체 규모 확대 → 전체 메모리 수요 증가

과학기술 연구자들도 이 점을 강조했습니다. “터보퀀트 기술로 인해 메모리 반도체를 효율적으로 사용하게 되면 더 많은 영역까지 AI를 적용해 AI 시장이 성장하고 메모리 반도체 수요도 증가할 것”이라고 전망했습니다.

출처: 머니투데이 (2026.3.27), 메리츠증권 보고서 (2026.3.27)


⚠️ 낙관론만이 전부가 아니다 — 용량에서 대역폭으로, 패러다임 이동이 진짜 위협

여기서 한 가지 솔직한 이야기를 해야 합니다. “제번스의 역설 → 수요 폭발 → 걱정 없다”는 낙관론만이 전부가 아닙니다. 터보퀀트가 던진 더 깊은 질문이 있습니다.

📌 진짜 위협: 경쟁의 축이 바뀐다

ZDNet 코리아의 분석이 정확합니다. “터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 ‘대역폭’의 중요성이 훨씬 커진다.”

논점이 ‘얼마나 많이 저장하느냐’에서 ‘얼마나 빠르게 쏟아붓느냐’로 이동하고 있습니다.

기존 경쟁 축새 경쟁 축
메모리 용량 (Capacity)대역폭 (Bandwidth)
HBM 몇 GBHBM 얼마나 빠른가
더 많이 저장더 빠르게 전달

이것이 진짜 위협입니다. 삼성전자와 SK하이닉스가 단순히 “큰 메모리를 만든다”는 전략에 머물면 안 된다는 신호입니다.

📌 CXL 메모리 — 새로운 전장

전문가들은 CXL(Compute Express Link) 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합 솔루션이 메모리 기업들의 다음 숙제라고 지적합니다.

터보퀀트가 KV캐시 용량을 줄이면서 더 고성능 HBM이나 CXL 기반 차세대 메모리에 대한 요구가 오히려 가속될 수 있다는 분석입니다.

📌 “건설”에서 “최적화”로: 업사이클의 끝 신호인가?

세종대 안광섭 교수는 이렇게 분석했습니다. “모든 기술 인프라 사이클에는 건설 국면과 최적화 국면이 있다. 터보퀀트, 엔비디아의 KVTC, 하이퍼스케일러들의 자체 칩 개발 — 이 모든 움직임은 최적화 국면의 신호다.”

하지만 같은 분석에서 이런 결론도 나옵니다. “터보퀀트 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다.”

출처: ZDNet 코리아 (2026.3.27), ZDNet 코리아 안광섭 교수 칼럼 (2026.3.26)


📄 아직 논문 단계다 — 오픈소스도 없는데 주가가 먼저 반응한 이유

📌 터보퀀트의 현실적 한계

현재 터보퀀트의 상태를 냉정하게 정리하면:

  • 공식 오픈소스 코드: 미공개 — 커뮤니티에서 자체 구현 시도 중이나 QJL 오차 보정 구현이 까다로워 제대로 작동 안 되는 사례 보고
  • 실제 서비스 적용: 없음 — vLLM, Ollama 등 주요 AI 서빙 프레임워크에 미통합
  • 검증 범위 제한 — 벤치마크가 80억 파라미터 수준 소형 모델에서만 진행. 700억 파라미터 이상 대형 모델에서의 성능은 미검증
  • 상용화 경로 — 구글이 자사 제미나이에 먼저 적용 후 점진적 확산 예상

바이라인네트워크는 이렇게 정리했습니다. “압축 알고리즘은 수년간 존재해왔지만 메모리 조달 규모를 근본적으로 바꾼 적은 없다.”

📌 그런데 왜 주가가 먼저 반응했나?

이것이 반도체 투자의 역설입니다. 주가는 항상 현실보다 6~12개월 앞서 움직입니다.

세 가지 이유:

① “논문 = 미래 현실”로 읽는 알고리즘 트레이더
헤지펀드의 알고리즘은 “메모리 압축 6배”라는 키워드에 즉각 반응하도록 설계돼 있습니다. 실제 적용 여부와 무관하게 매도 신호가 발동됩니다.

② 불확실성이 공포를 확대시킨다
터보퀀트가 얼마나 빨리 확산될지, 실제 HBM 수요에 얼마나 영향을 줄지 알 수 없는 상황입니다. 불확실성 자체가 리스크 프리미엄을 높여 주가를 끌어내립니다.

③ 이란 전쟁 이후 이미 위태로운 심리
이란 전쟁으로 코스피가 급락·급반등을 반복하며 투자 심리가 극도로 불안정한 상황이었습니다. 같은 뉴스도 안정적 시장에서는 2% 하락, 불안정한 시장에서는 6% 하락으로 증폭됩니다.

세종대 안광섭 교수는 흥미로운 사실을 지적했습니다. “터보퀀트 원본 논문은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 ICLR 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다.”


🎯 결론 — 지금 삼성전자·SK하이닉스 팔아야 할까, 담아야 할까?

📌 냉정한 팩트 정리

팩트 1. 2026년 HBM은 이미 완판
트렌드포스에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가 전망. 뱅크오브아메리카는 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정. 삼성전자, SK하이닉스, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태.

알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵습니다.

팩트 2. 터보퀀트는 추론 KV캐시만 압축, 학습 메모리에는 무관
HBM 수요의 핵심은 AI 학습입니다. 터보퀀트가 타깃하는 추론 단계의 KV캐시와는 다른 영역입니다. 설령 터보퀀트가 추론 KV캐시를 6배 줄여도 학습용 HBM 수요는 전혀 영향받지 않습니다.

팩트 3. 전문가 주류 의견 = “과도한 반응”
머니투데이, 바이라인네트워크, ZDNet, 메리츠증권 황수욱 연구원 — 증권가와 업계의 주류 의견은 “과도한 반응”입니다.

📌 그러나 리스크는 인정해야 한다

리스크 1: 2027년 이후 소프트 최적화의 누적 효과
터보퀀트 혼자서는 작지만, 엔비디아 KVTC(20배 압축)·하이퍼스케일러 자체 칩 등이 쌓이면 2027~2028년 HBM 수요 증가 속도가 둔화될 수 있습니다.

리스크 2: 용량에서 대역폭으로의 경쟁 축 이동
삼성전자와 SK하이닉스가 이 패러다임 이동에 얼마나 빠르게 대응하는지가 장기 경쟁력을 결정합니다.

📌 MR의 판단과 투자 기준

여기서 솔직하게 제 생각을 씁니다.

단기(2026년): 과도한 반응, 분할 매수 기회

2026년 HBM은 완판입니다. 터보퀀트는 논문 단계입니다. SK하이닉스의 2026년 순이익 증가율 전망은 75%, 삼성전자는 114%입니다. PBR 0.7~0.8배의 역사적 저평가 구간입니다. 이 상황에서 터보퀀트 하나로 -6%가 빠진 것은, 딥시크 때와 같은 패턴의 과민반응입니다.

저는 이번 급락을 추가 매수 기회로 보고 있습니다. 다만 한 번에 전량이 아니라 분할 매수를 권장합니다.

중장기(2027년~): 모니터링 필요

소프트웨어 최적화의 누적 효과와 대역폭 경쟁으로의 패러다임 이동을 주시해야 합니다. 특히 삼성전자의 HBM4·CXL 대응 전략, SK하이닉스의 기술 로드맵을 분기별로 점검하는 것이 필요합니다.

📌 투자 기준 체크리스트

✅ 지금 삼성·하이닉스 매수를 고려한다면:
① 2026년 HBM 완판 여부 → 확인됨
② 터보퀀트 실제 서비스 적용 여부 → 미적용
③ 학습 메모리 수요 영향 여부 → 없음
④ PBR 역사적 저평가 여부 → 0.7~0.8배, 저평가
⑤ 애널리스트 목표가 대비 현재가 → SK하이닉스 +45% 여력

⚠️ 주시해야 할 위험 신호:
① 터보퀀트 오픈소스 공개 + 대형 LLM 적용 확인 시
② 2027년 HBM 수주 취소·지연 보고 시
③ ICLR 2026 발표 후 엔비디아·구글의 공식 채택 발표 시


📚 참고 자료 및 데이터 출처

출처내용
아시아경제 (2026.3.26)구글 터보퀀트 공개, 삼성·하이닉스 주가 반응
바이라인네트워크 (2026.3.26)터보퀀트 쇼크 급락 현황, 딥시크 비교 분석
한국경제 (2026.3.26)터보퀀트 기술 설명, 마이크론 하락
머니투데이 (2026.3.26)HBM 수요 구조 영향 분석
머니투데이 (2026.3.27)과학기술 연구자들의 반응
EBN뉴스 (2026.3.27)단기 충격·중장기 기대 교차 분석
ZDNet 코리아 (2026.3.27)위기 vs 기회 전문가 분석
ZDNet 코리아 안광섭 교수 (2026.3.26)HBM vs KV캐시 차이, 건설→최적화 국면 분석
더퍼블릭 (2026.3.27)메리츠증권 황수욱 연구원 “착각의 반복” 보고서
트렌드포스2026년 HBM 수요 70% 증가 전망
뱅크오브아메리카2026년 HBM 시장 546억 달러 추정
ICLR 2026터보퀀트 논문 발표 예정 (2026.4)

❓ 자주 묻는 질문 (FAQ)

Q. 터보퀀트가 실제로 상용화되면 HBM 수요가 줄어드나요?

A. 두 가지를 구분해야 합니다. 터보퀀트는 추론 단계의 KV캐시만 압축합니다. AI 학습에 쓰이는 HBM 수요는 직접적인 영향이 없습니다. 추론용 메모리도 제번스의 역설이 적용되면 AI 서비스 확산으로 전체 수요가 오히려 늘 수 있습니다. 단, 중장기적으로는 소프트웨어 최적화의 누적 효과가 HBM 수요 증가 속도를 둔화시킬 가능성은 모니터링이 필요합니다.

Q. 딥시크 때처럼 지금 사면 수익이 나나요?

A. 딥시크 때의 패턴을 정확히 반복한다면 그렇습니다. 그러나 투자에서 역사는 반드시 반복되지 않습니다. 딥시크 때보다 터보퀀트 쇼크는 규모가 작고(메모리에 국한), 논문 단계라는 점에서 시장의 회복도 더 빠를 수 있습니다. 다만 이란 전쟁 변수가 여전히 큰 불확실성으로 남아 있어 분할 매수를 권장합니다.

Q. 삼성전자와 SK하이닉스 중 어떤 것이 더 낫나요?

A. AI HBM 수혜 측면에서는 SK하이닉스가 엔비디아 HBM3E 독점 공급으로 명확히 앞서 있습니다. 삼성전자는 HBM에서 SK하이닉스에 뒤처져 있지만 밸류에이션이 더 낮고 메모리 외 사업 다각화가 돼 있습니다. 터보퀀트 리스크를 감안하면 SK하이닉스가 더 직접적인 HBM 수혜주입니다.

Q. 터보퀀트가 ICLR에서 발표되면 주가에 또 영향이 있을까요?

A. 오픈소스가 공개되거나 엔비디아·구글이 공식 채택을 발표하는 경우 추가 하락 촉매가 될 수 있습니다. 반대로 대형 LLM에서 기대만큼의 성능이 나오지 않는다면 오히려 반등 계기가 될 수 있습니다. ICLR 2026은 4월 23~27일 예정입니다. 이 시점을 관심 이벤트로 체크해두는 것이 좋습니다.

Q. 2026년 SK하이닉스 HBM이 완판이면 지금 주가 하락이 왜 지속되나요?

A. 주가는 현재가 아니라 미래를 삽니다. 2026년 완판이지만 2027년 이후의 불확실성이 주가에 반영되는 것입니다. 터보퀀트, CXL 경쟁, 소프트웨어 최적화의 누적 효과가 2027년 HBM 수요에 어떤 영향을 줄지 불확실하기 때문에 리스크 프리미엄이 높아진 상태입니다.


👉 마무리

구글 터보퀀트는 실제로 의미 있는 기술입니다. KV캐시를 6배 줄이고 속도를 8배 높인다는 건 AI 추론 효율의 획기적 개선입니다. 하지만 그것이 곧바로 “HBM을 덜 사도 된다”는 결론으로 이어지는 건 단순한 논리입니다.

딥시크 때도 그랬습니다. 효율이 오르면 더 많이 씁니다. 150년 된 제번스의 역설이 그것을 증명합니다. 그리고 아직 터보퀀트는 논문 단계입니다. 오픈소스도 없고 실제 대형 서비스에 적용되지도 않았습니다.

그럼에도 “낙관론이 전부다”라고 말하고 싶지는 않습니다. 경쟁의 축이 용량에서 대역폭으로 이동하는 패러다임 변화, 소프트웨어 최적화의 누적 효과가 2027년 이후를 어떻게 바꿀지 — 이것은 계속 지켜봐야 할 진짜 변수입니다.

2026년 지금은: 과민반응이 만든 저평가 구간입니다. 분할 매수 기회입니다.
2027년 이후: 대역폭 경쟁과 소프트웨어 최적화 누적 효과를 모니터링하면서 포지션을 조정해야 합니다.

📌 이 글이 도움이 됐다면 북마크해두세요. ICLR 2026 발표(4월 23~27일)와 2분기 HBM 수주 동향이 나오는 시점에 꺼내 읽으면 판단에 도움이 될 것입니다.


※ 본 글은 2026년 3월 28일 기준으로 작성됐습니다. 투자 정보 제공 목적이며 특정 종목 매수·매도 권유가 아닙니다. 모든 투자의 최종 결정과 책임은 투자자 본인에게 있습니다.

관련 글 보기