Translation not up to date
Açık kaynak ve IBM temel modellerinden oluşan bir derlem IBM watsonx.ai' de devreye alınır.
Python kitaplığını kullanarak bu modellerden Bilgi İstemi Laboratuvarında ya da programlı olarak bilgi isteminde bulunabilirsiniz.
Modellerin özeti
Model sağlayıcısının, yönerge ayarlarının, simge sınırlarının ve diğer etkenlerin seçtiğiniz modeli nasıl etkileyebileceğini anlamak için bkz. Model seçilmesi.
Aşağıdaki çizelgede, IBM tarafından sağlanan desteklenen temel modeller listelenmektedir.
Model Adı | Sağlayıcı | Yönerge-ayarlanmış | Faturalama sınıfı | Simge sayısı üst sınırı Bağlam (giriş + çıkış) |
Daha fazla bilgi |
---|---|---|---|---|---|
granite-13b-chat-v1 | IBM | Evet | Sınıf 3 | 8192 | Model kart Web sitesi Araştırma belgesi |
granite-13b-instruct-v1 | IBM | Evet | Sınıf 3 | 8192 | Model kart Web sitesi Araştırma belgesi |
Aşağıdaki tabloda, üçüncü şahısların Hugging Face (Kucaklaşmanın Yüzü) aracılığıyla sağladığı desteklenen temel modeller listelenmektedir.
Model Adı | Sağlayıcı | Yönerge-ayarlanmış | Faturalama sınıfı | Simge sayısı üst sınırı Bağlam (giriş + çıkış) |
Daha fazla bilgi |
---|---|---|---|---|---|
flan-t5-xxl-11b | Evet | Sınıf 2 | 4096 | Model kartı Araştırma belgesi |
|
flan-ul2-20b | Evet | Sınıf 3 | 4096 | Model kartı UL2 araştırma belgesi Flan araştırma belgesi |
|
gpt-neox-20b | EleutherAI | Hayır | Sınıf 3 | 8192 | Model kartı Araştırma belgesi |
llama-2-13b-chat | Meta | Evet | Sınıf 2 | 4096 | Model kartı Araştırma belgesi |
llama-2-70b-chat | Meta | Evet | Sınıf 3 | 4096 | Model kartı Araştırma belgesi |
mpt-7b-instruct2 | Mozaik ML | Evet | Sınıf 1 | 2048 | Model kart Web sitesi |
mt0-xxl-13b | BigScience | Evet | Sınıf 2 | 4096 | Model kartı Araştırma belgesi |
starcoder-15.5b | BigCode | Hayır | Sınıf 2 | 8192 | Model kartı Araştırma belgesi |
- Her bir bölgesel veri merkezinde hangi modellerin sağlandığı listesi için bkz. Temel modelinin bölgesel kullanılabilirliği.
- Faturalama sınıfları ve hız sınırlaması hakkında bilgi için bkz. Watson Machine Learning planları.
Temel model ayrıntıları
Mevcut temel modeller, hem doğal diller hem de programlama dilleri için çeşitli kullanım senaryolarını destekler. Bu modellerin yapabileceği görev tiplerini görmek için örnek bilgi istemlerinigözden geçirin ve deneyin.
flan-t5-xxl-11b
flan-t5-xxl-11b modeli, Google tarafından Sarılma Yüzü üzerinde sağlanır. Bu model, önceden eğitilmiş metinden metne aktarma transformatörü (T5) modelini temel alır ve daha iyi sıfır ve az atımlı performans elde etmek için yönerge ince ayar yöntemlerini kullanır. Model, akıl yürütme görevlerini gerçekleştirme yeteneğini geliştirmek için düşünce zinciri verileriyle de ince ayarlıdır.
- Kullanım
Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.
- Maliyet
Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
11 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 4096
Not: Lite plan çıktısı 700 ile sınırlıdır
- Desteklenen doğal diller
İngilizce, Almanca, Fransızca
- Yönerge ayarlama bilgileri
Model, geleneksel doğal dil işleme görevlerine ek olarak düşünce zinciri verilerinden çok adımlı akıl yürütme içeren görevler üzerinde ince ayarlanmıştır. Kullanılan eğitim veri kümeleriyle ilgili ayrıntılar yayınlanır.
- Model mimarisi
Kodlayıcı-kod çözücü
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
flan-ul2-20b
flan-ul2-20b modeli, Google tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Bu model, Unifying Language Learning Paradigms (UL2) kullanılarak eğitilmiştir. Model, dil oluşturma, dil anlama, metin sınıflandırma, soru yanıtlama, sağduyu muhakemesi, uzun metin muhakemesi, yapılandırılmış bilgi topraklama ve bilgi alma, bağlam içi öğrenme, sıfır atış sorma ve tek atış sorma için optimize edilmiştir.
- Kullanım
Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.
- Maliyet
Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
20 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 4096
Not: Lite plan çıktısı 700 ile sınırlıdır
- Desteklenen doğal diller
Türkçe
- Yönerge ayarlama bilgileri
flan-ul2-20b modeli, Common Crawl web bilgi/belge toplama corpus 'un devasa, temizlenmiş sürümünde önceden eğitilmiştir. Model, çeşitli doğal dil işleme görevleri için optimize etmek üzere birden çok ön eğitim hedefiyle ince ayarlanmıştır. Kullanılan eğitim veri kümeleriyle ilgili ayrıntılar yayınlanır.
- Model mimarisi
Kodlayıcı-kod çözücü
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
gpt-neox-20b
gpt-neox-20b modeli, EleutherAI tarafından Sarılma Yüzü üzerinde sağlanır. Bu model, genel amaçlı kullanım senaryolarını desteklemek için çeşitli İngilizce metinler üzerinde eğitilen otomatik dil modelidir. GPT-NeoX-20B aşağı akış görevleri için ince ayarlı değildir.
- Kullanım
Birkaç atış bilgi istemiyle en iyi şekilde çalışır. Yapılandırılmış çıkış oluşturmak için kullanılabilecek özel karakterleri kabul eder.
Eğitim için kullanılan veri kümesi, küfür ve saldırgan metin içerir. Modelin çıkışını bir uygulamada kullanmadan önce, modelin çıkışını iyileştirdiğinizden emin olun.
- Maliyet
Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
20 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 8192
Not: Lite plan çıktısı 700 ile sınırlıdır
- Desteklenen doğal diller
Türkçe
- Eğitim sırasında kullanılan veriler
gpt-neox-20b modeli Pile üzerinde eğitildi. Pile hakkında daha fazla bilgi için bkz. The Pile: An 800GB Dataset of Diverse Text for Language Modeling. Yığın, eğitim için kullanılmadan önce tekilleştirilmedi.
- Model mimarisi
Dekoder
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
granite-13b-chat-v1
granite-13b-chat-v1 modeli IBMtarafından sağlanır. Bu model, diyalog kullanım senaryoları için optimize edilmiştir ve sanal temsilci ve sohbet uygulamalarıyla iyi çalışır.
- Kullanım
- Bir sohbet robotu gibi diyalog çıktısı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır. Çıkışında, kısa ve öz yanıtlar üretmek için durdurma sırası olarak kullanılabilecek bir anahtar sözcük içerir.
- Maliyet
- Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
- 13 milyar parametre
- Simge sınırları
- Bağlam (giriş + çıkış): 8192
- Desteklenen doğal diller
- Türkçe
- Yönerge ayarlama bilgileri
- Granite model ailesi, internet, akademik, kod, yasal ve finans olmak üzere beş alandan kurumsal ile ilgili veri setleri konusunda eğitilmiştir. Modelleri eğitmek için kullanılan veriler önce IBM veri yönetişimi incelemelerinden geçer ve IBMtarafından geliştirilen HAP süzgeci tarafından nefret, istismar ya da küfürle işaretlenen metinden süzülür. IBM , kullanılan eğitim yöntemleri ve veri kümeleriyle ilgili bilgileri paylaşır.
- Model mimarisi
- Dekoder
- Lisans
- Kullanım koşulları
- IBM watsonx.aiile ilgili sözleşmeye ilişkin korumalar hakkında daha fazla bilgi için bkz. IBM watsonx.ai hizmet tanımı.
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
granite-13b-instruct-v1
granite-13b-instruct-v1 modeli IBMtarafından sağlanır. Bu model, yüksek kaliteli finans verileri ile eğitildi ve finans görevlerinde en iyi performans gösteren bir modeldir. Değerlendirilen finansal görevler şunları içerir: hisse senedi ve kazanç çağrıları için duygu puanları sağlanması, haber başlıklarının sınıflandırılması, kredi riski değerlendirmelerinin alınması, finansal uzun formlu metnin özetlenmesi ve finansal veya sigortayla ilgili soruların yanıtlanması.
- Kullanım
Çıkarma, özetleme ve sınıflandırma görevlerini destekler. Finansla ilgili görevler için yararlı çıktı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır. Yapılandırılmış çıkış oluşturmak için kullanılabilecek özel karakterleri kabul eder.
- Maliyet
Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
13 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 8192
- Desteklenen doğal diller
Türkçe
- Yönerge ayarlama bilgileri
Granite model ailesi, internet, akademik, kod, yasal ve finans olmak üzere beş alandan kurumsal ile ilgili veri setleri konusunda eğitilmiştir. Modelleri eğitmek için kullanılan veriler önce IBM veri yönetişimi incelemelerinden geçer ve IBMtarafından geliştirilen HAP süzgeci tarafından nefret, istismar ya da küfürle işaretlenen metinden süzülür. IBM , kullanılan eğitim yöntemleri ve veri kümeleriyle ilgili bilgileri paylaşır.
- Model mimarisi
Dekoder
- Lisans
IBM watsonx.aiile ilgili sözleşmeye ilişkin korumalar hakkında daha fazla bilgi için bkz. IBM watsonx.ai hizmet tanımı.
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
Llama-2 Sohbet
Llama-2 Sohbet modeli, Meta tarafından Sarılma Yüzü üzerinde sağlanır. Hassas ayarlı model, sohbet oluşturma için kullanışlıdır. Model, kamuya açık çevrimiçi verilerle önceden eğitilmiş ve insan geribildirimlerinden pekiştirmeli öğrenme kullanılarak ince ayarlanmıştır.
Modelin 13 milyar parametresini ya da 70 milyar parametre sürümünü kullanmayı seçebilirsiniz.
- Kullanım
Bir sohbet robotu gibi diyalog çıktısı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır.
- Maliyet
13b: Sınıf 2
70b: Sınıf 3
Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Kullanılabilir boyutlar
- 13 milyar parametre
- 70 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 4096
Not: Lite plan çıktısı 900 ile sınırlıdır
- Desteklenen doğal diller
Türkçe
- Yönerge ayarlama bilgileri
Lama 2, halka açık kaynaklardan elde edilen 2 trilyon veri üzerinde önceden eğitildi. Hassas ayar verileri, genel kullanıma açık yönerge veri kümelerini ve insanlar tarafından açıklanan bir milyondan fazla yeni örneği içerir.
- Model mimarisi
Lama 2, optimize edilmiş bir transformatör mimarisi kullanan yalnızca otomatik regressif bir dekoder dil modelidir. Ayarlanan sürümler, insan geri bildirimiyle denetimli ince ayar ve pekiştirme öğrenimini kullanır.
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
mpt-7b-instruct2
mpt-7b-instruct2 modeli, MosaicML tarafından Hugging Face (Kucaklama Yüzü) üzerinde sağlanır. Bu model, uzun girişleri işlemek üzere eğitilen temel MosaicML Önceden Eğitilmiş Transformer (MPT) modelinin ince ayarlı bir sürümüdür. Modelin bu sürümü, kısa biçimli yönergeleri izlemek için IBM tarafından optimize edilmiştir.
- Kullanım
Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.
- Maliyet
Sınıf 1. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
7 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 2048
Not: Lite plan çıktısı 500 ile sınırlıdır
- Desteklenen doğal diller
Türkçe
- Yönerge ayarlama bilgileri
Bu modeli eğitmek için kullanılan veri kümesi, Databrick 'ten Dolly veri kümesinin ve Antropik 'ten İnsan Geribildirim eğitimi verilerinden Güçlendirme Destekli Yardımsever ve Zararsız Asistan 'ın süzgeçten geçirilmiş bir alt kümesinin bir birleşimidir. Süzgeç uygulama sırasında, aşağıdaki adımları içeren iletişim kutusu değiştokuşlarının kısımları örnek olarak kullanılmak üzere ayıklanmıştı.
- Model mimarisi
Kodlayıcı-kod çözücü
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
mt0-xxl-13b
mt0-xxl-13b modeli, BigScience tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Model, İngilizce, İngilizce dışında diller ve çok dilli bilgi istemleri ile dil oluşturma ve çeviri görevlerini destekleyecek şekilde optimize edilmiştir.
- Kullanım
Sıfır ya da birkaç atış bilgi istemiyle genel kullanım. Çeviri görevleri için, çevrilmesini istediğiniz metnin sonunu belirtmek üzere bir nokta ekleyin ya da model tümcenin çevirisini yapmak yerine tümceye devam edebilir.
- Maliyet
Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
13 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 4096
Not: Lite plan çıktısı 700 ile sınırlıdır
- Desteklenen doğal diller
Model, 108 dilde çok dilli veriler üzerinde önceden eğitilmiş ve çok dilli görevler gerçekleştirmek için 46 dilde çok dilli veriler ile ince ayarlanmıştır.
- Yönerge ayarlama bilgileri
BigScience , kod ve veri kümeleriyle ilgili ayrıntıları yayınlar.
- Model mimarisi
Kodlayıcı-kod çözücü
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
starcoder-15.5b
starcoder-15.5b modeli, BigCode tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Bu model kod oluşturabilir ve kodu bir programlama dilinden diğerine dönüştürebilir. Modelin, geliştiriciler tarafından üretkenliklerini artırmak için kullanılması amaçlanmıştır.
- Kullanım
Kod oluşturma ve kod dönüştürme
Not: Model çıkışı, doğrudan eğitim verilerinden alınan kodu içerebilir; bu kod, ilişkilendirme gerektiren lisanslı bir koddur.
- Maliyet
Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
- Deneyin
- Büyüklük
15.5 milyar parametre
- Simge sınırları
Bağlam (giriş + çıkış): 8192
- Desteklenen programlama dilleri
Python' a vurgu yaparak 80 'den fazla programlama dili.
- Eğitim sırasında kullanılan veriler
Bu model, GitHub' dan 80 'den fazla programlama dili üzerinde eğitildi. Hariç tutma istekleriyle işaretlenmiş herhangi bir lisanslı kod ya da kod eğitim verilerinden dışlanacak bir süzgeç uygulandı. Bununla birlikte, modelin çıktısı, atıf gerektiren eğitim verilerinden alınan kodu içerebilir. Model yönerge ayarlı değil. Girişin yalnızca bir yönerge ile sunulması ve örnek gösterilmemesi, model çıkışının kötü olmasına neden olabilir.
- Model mimarisi
Dekoder
- Lisans
Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:
Üst konu: Foundation modelleri