구글 젬마(Gemma)와 엔비디아 Chat with RTX Posted on 2024-02-232024-02-23 최근 구글과 엔비디아가 손잡고 새로운 AI 모델 ‘Gemma‘를 세상에 선보였어요. 이 소식은 단순히 두 기업의 협력 이상의 의미를 갖는데요, AI 기술의 새로운 지평을 여는 계기가 되었기 때문이죠. Gemma는 특히 사용자 맞춤형 AI 서비스를 더욱 쉽고, 빠르게, 그리고 경제적으로 제공할 수 있는 힘을 가지고 있어요. Gemma가 뭐길래? Gemma는 2억과 70억 파라미터를 갖춘, 전 세계 어디서든 실행 가능한 경량화된 언어 모델이에요. 이는 개발자들이 자신들의 분야에 특화된 AI 서비스를 더욱 신속하게 개발하고, 비용 부담 없이 혁신을 이룰 수 있도록 돕습니다. 덕분에 AI 기술을 활용한 서비스 개발이 한층 더 가속화될 전망입니다. 엔비디아의 TensorRT-LLM, Gemma의 속도를 높이다 엔비디아는 대규모 언어 모델의 추론 속도를 최적화하는 오픈 소스 라이브러리, TensorRT-LLM을 통해 Gemma의 성능을 한층 끌어올렸어요. 이 협력 덕분에 Gemma는 엔비디아의 GPU를 활용해 데이터 센터, 클라우드, 심지어 개인용 PC에서도 빠르게 돌아갈 수 있게 되었습니다. 개발자와 기업에게 열린 새로운 기회 이제 개발자들은 전 세계에 널리 퍼져 있는 엔비디아의 RTX GPU를 활용해 Gemma를 자유롭게 이용할 수 있게 되었습니다. 구글 클라우드에서도 Gemma를 돌릴 수 있으며, 특히 구글이 올해 선보일 H200 Tensor Core GPU에서는 더욱 뛰어난 성능을 기대할 수 있습니다. 기업 개발자들은 엔비디아의 다양한 도구를 통해 Gemma를 더욱 정교하게 조정하고, 최적화된 모델을 자신들의 애플리케이션에 적용할 수 있습니다. 직접 체험해보세요, 엔비디아 AI Playground에서! Gemma의 실제 성능을 직접 체험해보고 싶다면, 엔비디아 AI Playground에서 Gemma 2B와 7B 모델을 직접 돌려볼 수 있습니다. 이는 AI 기술이 어떻게 우리의 상상력을 현실로 만들어내는지 직접 느껴볼 수 있는 좋은 기회예요. Chat with RTX, Gemma를 만나다 엔비디아는 Gemma를 지원하는 ‘Chat with RTX’ 기술 데모를 곧 선보일 예정입니다. 이를 통해 사용자는 자신의 데이터를 기반으로 한 개인화된 챗봇을 만들 수 있게 되며, 모든 처리는 로컬 PC에서 이루어져 빠른 응답 속도와 높은 데이터 보안을 자랑합니다. 개인 PC로 Gemma를 만난다? 구글과 엔비디아의 이번 협력은 AI 기술이 나아갈 방향에 대해 새로운 비전을 제시합니다. Gemma의 등장은 우리가 AI를 통해 이룰 수 있는 가능성의 문을 한층 더 넓게 열어주고 있어요. 앞으로 이 기술이 어떻게 우리의 일상과 산업에 변화를 가져올지 기대가 됩니다. 0도움이 되었어요!0별로에요!50% LikesVS50% Dislikes 과학과 기술 알쓸잡학.Zip AIGemma구글구글 젬마엔비디아