Gemini-ის წარდგენიდან მხოლოდ ერთი კვირის შემდეგ, Google-მა ახალი მსუბუქი წონის ენობრივი მოდელების ახალი ოჯახი, – Gemma წარმოადგინა. Gemma 2B და Gemma 7B, შთაგონებულია Gemini-ით და შექმნილია როგორც კომერციული, ასევე კვლევითი მიზნებისთვის. Google DeepMind ახალი პროდუქტის სახელწოდება მომდინარეობს ლათინური სიტყვიდან jewel, რაც ასახავს მის მიზანს, მხარი დაუჭიროს დეველოპერებს ინოვაციებში, ხელი შეუწყოს თანამშრომლობას და Gemma-ს მოდელების მარტივ გამოყენებას.
მიუხედავად იმისა, რომ კომპანია ხაზს უსვამს, რომ ეს არის ღია მოდელები, ისინი ასევე განმარტავენ, რომ ეს არ გულისხმობს ღია წყაროს:
„ღია მოდელები უკვე საკმაოდ გავრცელებულია ინდუსტრიაში და ეს ჩვეულებრივ გულისხმობს ღია წონის მოდელებს, სადაც დეველოპერებს და მკვლევარებს შეუძლიათ შეცვალონ და გააუმჯობესონ მოდელები, მაგრამ ამავე დროს, გამოყენების პირობები დაკავშირებულია მოდელის გამოყენების კონკრეტულ სცენარებთან. აქედან გამომდინარე, ჩვენ ვხედავთ განსხვავებას იმას შორის, რასაც ჩვენ ტრადიციულად ვუწოდებთ ღია წყაროს და სწორედ ამიტომ გადავწყვიტეთ, რომ უფრო მიზანშეწონილი იქნებოდა Gemma ეწოდოს ღია მოდელები“, – ამბობს ჯანინ ბენქსი.
ეს ნიშნავს, რომ დეველოპერებს შეუძლიათ გამოიყენონ მოდელი ისე, როგორც სურთ, და Google ამტკიცებს, რომ მოდელის ზომები შესაფერისია მრავალი გამოყენების შემთხვევაში. თქვენ ასევე შეგიძლიათ გამოიყენოთ ის Colab და Kaggle ნოუთბუქებზე, ისეთი პოპულარული ხელსაწყოების ინტეგრირებით, როგორიცაა Hugging Face, MaxText, NVIDIA NeMo და TensorRT-LLM. Gemma მოდელები მუშაობს თქვენს ლეპტოპებზე, Google Cloud-ზე, Vertex AI-ზე და Google Kubernetes Engine-ზე (GKE).
მიუხედავად იმისა, რომ გაურკვეველია, რამდენად დიდი მოთხოვნაა პატარა მოდელებზე, როგორიცაა Gemma, სხვა AI კომპანიებმაც გამოუშვეს მსუბუქი წონის ვერსიები. Meta წარადგინა Llama 2 7B, Llama 2-ის ყველაზე პატარა მოდელი, გასულ წელს. თავად Gemini ხელმისაწვდომია რამდენიმე ვერსიით, მათ შორის Gemini Nano, Gemini Pro და Gemini Ultra.