728x90 반응형 인공지능327 Intel AI 칩 & IBM AI 칩 🟦 Intel AI 칩🔹 Gaudi 3 AI Accelerator데이터센터용 추론/학습 가속기, 5nm 공정 기반, MLPerf에서 1세대 대비:FP8 연산 2×, BF16 4×, 네트워크 대역폭 2× 개선 ibm.com+15intel.com+15hpcwire.com+15.Ethernet 기반 확장이 가능해 NVLink/NVSwitch 등 독점 네트워크에 의존하지 않음 intel.com.하나의 노드 또는 수천 노드급 대규모 AI 시스템 구축에 적합 research.ibm.com+6intel.com+6research.ibm.com+6.기대 성능 대비 수익률은 높지만, 동남아 채택률은 더디며 2024년 매출 목표 미달 .2025년 CEO 교체 후 자체 내재화 전략으로 방향 전환, Instaider 방식 .. 2025. 6. 15. AWS AI 칩(인퍼런시아 & 트레이니엄 시리즈) 다음은 **AWS AI 칩(인퍼런시아 & 트레이니엄 시리즈)**에 대한 요약 입니다:☁️ 1. AWS Inferentia – 추론 전용 AI 칩**AI 추론(inference)**에 최적화된 AWS 독자 설계 칩. EC2 Inf1, Inf2 인스턴스에서 사용:Inferentia (1세대): GPU 기반 대비 최대 2.3배 빠른 처리 속도, 약 70% 비용 절감 효과.Inferentia2 (Inf2 인스턴스):성능 4배 향상, 지연 시간 10배 감소칩당 190 TFLOPS(FP16), 32 GB HBM 메모리최대 12개 칩을 단일 인스턴스에 연결 가능지원 프레임워크: PyTorch, TensorFlow 완전 호환 (AWS Neuron SDK 사용)활용 분야: 자연어 처리, 이미지 생성, RAG, 사기 탐지.. 2025. 6. 15. Apple AI (“Apple Intelligence”),Apple AI 칩셋(A18 시리즈 및 M4) **Apple AI (“Apple Intelligence”)**은 2024년 WWDC에서 발표된 Apple의 기기 내(on-device) 및 클라우드 기반 AI 플랫폼입니다. iOS 18, iPadOS 18, macOS Sequoia에 도입되었으며, 개인 정보 보호, 오프라인 사용, 기기 전체 통합을 핵심으로 설계되었습니다 .🧩 주요 구성 요소1. 온디바이스 + 클라우드 Foundation 모델최근 Foundation Models 프레임워크 API 공개: 개발자가 기기 내 모델에 직접 접근 가능해졌습니다 nypost.com+2machinelearning.apple.com+2machinelearning.apple.com+2.온디바이스 모델은 Mistral, Google, MS와 동급 혹은 더 나은 성능을.. 2025. 6. 15. AMD AI – Instinct MI300 AMD AI – Instinct MI300 시리즈 및 에코시스템 정리🧠 핵심 하드웨어Instinct MI300X(A) GPU AI 가속기CDNA 3 기반, HBM3 메모리 192 GB, 메모리 대역폭 5.2 TB/s로 NVIDIA H100 대비 메모리 용량 2.4배, 대역폭 1.6배 향상 amd.com+15global-net.co.jp+15businesswire.com+15amd.com+5hothardware.com+5techspot.com+5.멀티 칩렛 설계, 하나의 가속기에 모델 최대 80 B 파라미터 완전 적재 가능 hothardware.com.Instinct 플랫폼 및 클러스터최대 8개의 MI300X 모듈, 총 1.5 TB HBM3 메모리, OCP 표준 기반으로 데이터센터 확장 설계 amd.co.. 2025. 6. 15. NVIDIA AI, 전체 AI 스택 업계 최고의 플랫폼 NVIDIA AI는 전체 AI 스택을 아우르는 업계 최고의 플랫폼으로, 인프라(하드웨어)에서부터 소프트웨어, 그리고 AI 모델에 이르기까지 통합해서 제공합니다 .🚀 하드웨어 인프라Blackwell 아키텍처 기반의 GPU(H100 후속)로, 대규모 생성형 AI 및 고성능 컴퓨팅에 최적 developer.nvidia.com+14nvidia.com+14investors.com+14.Grace Blackwell CPU‑GPU 슈퍼칩 채용:휴대형 AI 개발용 DGX Spark, 전문가용 DGX Station, 고밀도 데이터센터용 DGX GB200 / SuperPod, 그리고 NVL576 랙 등 다양한 시스템 investors.com+11nvidianews.nvidia.com+11livescience.com+11.. 2025. 6. 15. Qualcomm Cloud AI 🏢 퀄컴 AI 개요퀄컴은 클라우드 AI 추론 가속기와 **온디바이스 AI 엔진(Snapdragon 기반)**을 모두 제공하는 글로벌 반도체 기업입니다.☁️ Qualcomm Cloud AI 100 / Ultra📌 특징Cloud AI 100 PCIe 가속기:75W에서 최대 400 TOPS (FP16/INT8 기준), 16개 AI 코어, 144MB 온칩 SRAM, 32GB LPDDR4x 메모리비전/언어 모델, RAG 등 추론용으로 최적화됨Cloud AI 100 Ultra:4개 칩을 1개 카드에 집적한 고집적 PCIe Gen4 시스템MLPerf 벤치마크 상위권 기록: 전력 대비 성능 최고 수준🛠️ 개발 생태계Qualcomm AI Stack / SDK 제공PyTorch, TensorFlow, ONNX 연동 .. 2025. 6. 15. 이전 1 2 3 4 5 6 ··· 55 다음 728x90 반응형