0 / 0
Go back to the English version of the documentation
watsonx.ai ile desteklenen temel modeller
Last updated: 09 Kas 2023
watsonx.ai ile desteklenen temel modeller

Açık kaynak ve IBM temel modellerinden oluşan bir derlem IBM watsonx.ai' de devreye alınır.

Python kitaplığını kullanarak bu modellerden Bilgi İstemi Laboratuvarında ya da programlı olarak bilgi isteminde bulunabilirsiniz.

Modellerin özeti

Model sağlayıcısının, yönerge ayarlarının, simge sınırlarının ve diğer etkenlerin seçtiğiniz modeli nasıl etkileyebileceğini anlamak için bkz. Model seçilmesi.

Aşağıdaki çizelgede, IBM tarafından sağlanan desteklenen temel modeller listelenmektedir.

Tablo 1. IBM temel modeller watsonx.ai
Model Adı Sağlayıcı Yönerge-ayarlanmış Faturalama sınıfı Simge sayısı üst sınırı
Bağlam (giriş + çıkış)
Daha fazla bilgi
granite-13b-chat-v1 IBM Evet Sınıf 3 8192 Model kart
Web sitesi
Araştırma belgesi
granite-13b-instruct-v1 IBM Evet Sınıf 3 8192 Model kart
Web sitesi
Araştırma belgesi

 

Aşağıdaki tabloda, üçüncü şahısların Hugging Face (Kucaklaşmanın Yüzü) aracılığıyla sağladığı desteklenen temel modeller listelenmektedir.

Masa 2. watsonx.ai içinde desteklenen üçüncü kişi temel modelleri
Model Adı Sağlayıcı Yönerge-ayarlanmış Faturalama sınıfı Simge sayısı üst sınırı
Bağlam (giriş + çıkış)
Daha fazla bilgi
flan-t5-xxl-11b Google Evet Sınıf 2 4096 Model kartı
Araştırma belgesi
flan-ul2-20b Google Evet Sınıf 3 4096 Model kartı
UL2 araştırma belgesi
Flan araştırma belgesi
gpt-neox-20b EleutherAI Hayır Sınıf 3 8192 Model kartı
Araştırma belgesi
llama-2-13b-chat Meta Evet Sınıf 2 4096 Model kartı
Araştırma belgesi
llama-2-70b-chat Meta Evet Sınıf 3 4096 Model kartı
Araştırma belgesi
mpt-7b-instruct2 Mozaik ML Evet Sınıf 1 2048 Model kart
Web sitesi
mt0-xxl-13b BigScience Evet Sınıf 2 4096 Model kartı
Araştırma belgesi
starcoder-15.5b BigCode Hayır Sınıf 2 8192 Model kartı
Araştırma belgesi

 

 

Temel model ayrıntıları

Mevcut temel modeller, hem doğal diller hem de programlama dilleri için çeşitli kullanım senaryolarını destekler. Bu modellerin yapabileceği görev tiplerini görmek için örnek bilgi istemlerinigözden geçirin ve deneyin.

flan-t5-xxl-11b

flan-t5-xxl-11b modeli, Google tarafından Sarılma Yüzü üzerinde sağlanır. Bu model, önceden eğitilmiş metinden metne aktarma transformatörü (T5) modelini temel alır ve daha iyi sıfır ve az atımlı performans elde etmek için yönerge ince ayar yöntemlerini kullanır. Model, akıl yürütme görevlerini gerçekleştirme yeteneğini geliştirmek için düşünce zinciri verileriyle de ince ayarlıdır.

Kullanım

Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.

Maliyet

Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

11 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 4096

Not: Lite plan çıktısı 700 ile sınırlıdır

Desteklenen doğal diller

İngilizce, Almanca, Fransızca

Yönerge ayarlama bilgileri

Model, geleneksel doğal dil işleme görevlerine ek olarak düşünce zinciri verilerinden çok adımlı akıl yürütme içeren görevler üzerinde ince ayarlanmıştır. Kullanılan eğitim veri kümeleriyle ilgili ayrıntılar yayınlanır.

Model mimarisi

Kodlayıcı-kod çözücü

Lisans

Apache 2.0 lisansı

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

flan-ul2-20b

flan-ul2-20b modeli, Google tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Bu model, Unifying Language Learning Paradigms (UL2) kullanılarak eğitilmiştir. Model, dil oluşturma, dil anlama, metin sınıflandırma, soru yanıtlama, sağduyu muhakemesi, uzun metin muhakemesi, yapılandırılmış bilgi topraklama ve bilgi alma, bağlam içi öğrenme, sıfır atış sorma ve tek atış sorma için optimize edilmiştir.

Kullanım

Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.

Maliyet

Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

20 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 4096

Not: Lite plan çıktısı 700 ile sınırlıdır

Desteklenen doğal diller

Türkçe

Yönerge ayarlama bilgileri

flan-ul2-20b modeli, Common Crawl web bilgi/belge toplama corpus 'un devasa, temizlenmiş sürümünde önceden eğitilmiştir. Model, çeşitli doğal dil işleme görevleri için optimize etmek üzere birden çok ön eğitim hedefiyle ince ayarlanmıştır. Kullanılan eğitim veri kümeleriyle ilgili ayrıntılar yayınlanır.

Model mimarisi

Kodlayıcı-kod çözücü

Lisans

Apache 2.0 lisansı

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

gpt-neox-20b

gpt-neox-20b modeli, EleutherAI tarafından Sarılma Yüzü üzerinde sağlanır. Bu model, genel amaçlı kullanım senaryolarını desteklemek için çeşitli İngilizce metinler üzerinde eğitilen otomatik dil modelidir. GPT-NeoX-20B aşağı akış görevleri için ince ayarlı değildir.

Kullanım

Birkaç atış bilgi istemiyle en iyi şekilde çalışır. Yapılandırılmış çıkış oluşturmak için kullanılabilecek özel karakterleri kabul eder.

Eğitim için kullanılan veri kümesi, küfür ve saldırgan metin içerir. Modelin çıkışını bir uygulamada kullanmadan önce, modelin çıkışını iyileştirdiğinizden emin olun.

Maliyet

Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

20 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 8192

Not: Lite plan çıktısı 700 ile sınırlıdır

Desteklenen doğal diller

Türkçe

Eğitim sırasında kullanılan veriler

gpt-neox-20b modeli Pile üzerinde eğitildi. Pile hakkında daha fazla bilgi için bkz. The Pile: An 800GB Dataset of Diverse Text for Language Modeling. Yığın, eğitim için kullanılmadan önce tekilleştirilmedi.

Model mimarisi

Dekoder

Lisans

Apache 2.0 lisansı

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

granite-13b-chat-v1

granite-13b-chat-v1 modeli IBMtarafından sağlanır. Bu model, diyalog kullanım senaryoları için optimize edilmiştir ve sanal temsilci ve sohbet uygulamalarıyla iyi çalışır.

Kullanım
Bir sohbet robotu gibi diyalog çıktısı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır. Çıkışında, kısa ve öz yanıtlar üretmek için durdurma sırası olarak kullanılabilecek bir anahtar sözcük içerir.
Maliyet
Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.
Deneyin
Büyüklük
13 milyar parametre
Simge sınırları
Bağlam (giriş + çıkış): 8192
Desteklenen doğal diller
Türkçe
Yönerge ayarlama bilgileri
Granite model ailesi, internet, akademik, kod, yasal ve finans olmak üzere beş alandan kurumsal ile ilgili veri setleri konusunda eğitilmiştir. Modelleri eğitmek için kullanılan veriler önce IBM veri yönetişimi incelemelerinden geçer ve IBMtarafından geliştirilen HAP süzgeci tarafından nefret, istismar ya da küfürle işaretlenen metinden süzülür. IBM , kullanılan eğitim yöntemleri ve veri kümeleriyle ilgili bilgileri paylaşır.
Model mimarisi
Dekoder
Lisans
Kullanım koşulları
IBM watsonx.aiile ilgili sözleşmeye ilişkin korumalar hakkında daha fazla bilgi için bkz. IBM watsonx.ai hizmet tanımı.

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

granite-13b-instruct-v1

granite-13b-instruct-v1 modeli IBMtarafından sağlanır. Bu model, yüksek kaliteli finans verileri ile eğitildi ve finans görevlerinde en iyi performans gösteren bir modeldir. Değerlendirilen finansal görevler şunları içerir: hisse senedi ve kazanç çağrıları için duygu puanları sağlanması, haber başlıklarının sınıflandırılması, kredi riski değerlendirmelerinin alınması, finansal uzun formlu metnin özetlenmesi ve finansal veya sigortayla ilgili soruların yanıtlanması.

Kullanım

Çıkarma, özetleme ve sınıflandırma görevlerini destekler. Finansla ilgili görevler için yararlı çıktı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır. Yapılandırılmış çıkış oluşturmak için kullanılabilecek özel karakterleri kabul eder.

Maliyet

Sınıf 3. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

13 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 8192

Desteklenen doğal diller

Türkçe

Yönerge ayarlama bilgileri

Granite model ailesi, internet, akademik, kod, yasal ve finans olmak üzere beş alandan kurumsal ile ilgili veri setleri konusunda eğitilmiştir. Modelleri eğitmek için kullanılan veriler önce IBM veri yönetişimi incelemelerinden geçer ve IBMtarafından geliştirilen HAP süzgeci tarafından nefret, istismar ya da küfürle işaretlenen metinden süzülür. IBM , kullanılan eğitim yöntemleri ve veri kümeleriyle ilgili bilgileri paylaşır.

Model mimarisi

Dekoder

Lisans

Kullanım koşulları

IBM watsonx.aiile ilgili sözleşmeye ilişkin korumalar hakkında daha fazla bilgi için bkz. IBM watsonx.ai hizmet tanımı.

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

Llama-2 Sohbet

Llama-2 Sohbet modeli, Meta tarafından Sarılma Yüzü üzerinde sağlanır. Hassas ayarlı model, sohbet oluşturma için kullanışlıdır. Model, kamuya açık çevrimiçi verilerle önceden eğitilmiş ve insan geribildirimlerinden pekiştirmeli öğrenme kullanılarak ince ayarlanmıştır.

Modelin 13 milyar parametresini ya da 70 milyar parametre sürümünü kullanmayı seçebilirsiniz.

Kullanım

Bir sohbet robotu gibi diyalog çıktısı oluşturur. Modele özgü bir bilgi istemi biçimi kullanır.

Maliyet

13b: Sınıf 2

70b: Sınıf 3

Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Kullanılabilir boyutlar
  • 13 milyar parametre
  • 70 milyar parametre
Simge sınırları

Bağlam (giriş + çıkış): 4096

Not: Lite plan çıktısı 900 ile sınırlıdır

Desteklenen doğal diller

Türkçe

Yönerge ayarlama bilgileri

Lama 2, halka açık kaynaklardan elde edilen 2 trilyon veri üzerinde önceden eğitildi. Hassas ayar verileri, genel kullanıma açık yönerge veri kümelerini ve insanlar tarafından açıklanan bir milyondan fazla yeni örneği içerir.

Model mimarisi

Lama 2, optimize edilmiş bir transformatör mimarisi kullanan yalnızca otomatik regressif bir dekoder dil modelidir. Ayarlanan sürümler, insan geri bildirimiyle denetimli ince ayar ve pekiştirme öğrenimini kullanır.

Lisans

Lisans

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

mpt-7b-instruct2

mpt-7b-instruct2 modeli, MosaicML tarafından Hugging Face (Kucaklama Yüzü) üzerinde sağlanır. Bu model, uzun girişleri işlemek üzere eğitilen temel MosaicML Önceden Eğitilmiş Transformer (MPT) modelinin ince ayarlı bir sürümüdür. Modelin bu sürümü, kısa biçimli yönergeleri izlemek için IBM tarafından optimize edilmiştir.

Kullanım

Sıfır ya da birkaç atış bilgi istemiyle genel kullanım.

Maliyet

Sınıf 1. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

7 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 2048

Not: Lite plan çıktısı 500 ile sınırlıdır

Desteklenen doğal diller

Türkçe

Yönerge ayarlama bilgileri

Bu modeli eğitmek için kullanılan veri kümesi, Databrick 'ten Dolly veri kümesinin ve Antropik 'ten İnsan Geribildirim eğitimi verilerinden Güçlendirme Destekli Yardımsever ve Zararsız Asistan 'ın süzgeçten geçirilmiş bir alt kümesinin bir birleşimidir. Süzgeç uygulama sırasında, aşağıdaki adımları içeren iletişim kutusu değiştokuşlarının kısımları örnek olarak kullanılmak üzere ayıklanmıştı.

Model mimarisi

Kodlayıcı-kod çözücü

Lisans

Apache 2.0 lisansı

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

mt0-xxl-13b

mt0-xxl-13b modeli, BigScience tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Model, İngilizce, İngilizce dışında diller ve çok dilli bilgi istemleri ile dil oluşturma ve çeviri görevlerini destekleyecek şekilde optimize edilmiştir.

Kullanım

Sıfır ya da birkaç atış bilgi istemiyle genel kullanım. Çeviri görevleri için, çevrilmesini istediğiniz metnin sonunu belirtmek üzere bir nokta ekleyin ya da model tümcenin çevirisini yapmak yerine tümceye devam edebilir.

Maliyet

Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

13 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 4096

Not: Lite plan çıktısı 700 ile sınırlıdır

Desteklenen doğal diller

Model, 108 dilde çok dilli veriler üzerinde önceden eğitilmiş ve çok dilli görevler gerçekleştirmek için 46 dilde çok dilli veriler ile ince ayarlanmıştır.

Yönerge ayarlama bilgileri

BigScience , kod ve veri kümeleriyle ilgili ayrıntıları yayınlar.

Model mimarisi

Kodlayıcı-kod çözücü

Lisans

Apache 2.0 lisansı

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

starcoder-15.5b

starcoder-15.5b modeli, BigCode tarafından Hugging Face (Hugging Face) üzerinde sağlanır. Bu model kod oluşturabilir ve kodu bir programlama dilinden diğerine dönüştürebilir. Modelin, geliştiriciler tarafından üretkenliklerini artırmak için kullanılması amaçlanmıştır.

Kullanım

Kod oluşturma ve kod dönüştürme

Not: Model çıkışı, doğrudan eğitim verilerinden alınan kodu içerebilir; bu kod, ilişkilendirme gerektiren lisanslı bir koddur.

Maliyet

Sınıf 2. Fiyatlandırma ayrıntıları için bkz. Watson Machine Learning planları.

Deneyin
Büyüklük

15.5 milyar parametre

Simge sınırları

Bağlam (giriş + çıkış): 8192

Desteklenen programlama dilleri

Python' a vurgu yaparak 80 'den fazla programlama dili.

Eğitim sırasında kullanılan veriler

Bu model, GitHub' dan 80 'den fazla programlama dili üzerinde eğitildi. Hariç tutma istekleriyle işaretlenmiş herhangi bir lisanslı kod ya da kod eğitim verilerinden dışlanacak bir süzgeç uygulandı. Bununla birlikte, modelin çıktısı, atıf gerektiren eğitim verilerinden alınan kodu içerebilir. Model yönerge ayarlı değil. Girişin yalnızca bir yönerge ile sunulması ve örnek gösterilmemesi, model çıkışının kötü olmasına neden olabilir.

Model mimarisi

Dekoder

Lisans

Lisans

Bu modelle ilgili daha fazla bilgi için aşağıdaki kaynaklara bakın:

 

Üst konu: Foundation modelleri

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more