T0pp by BigScience

GPT-3 Alternatif Büyük Dil Modelleri (LLM’ler)

T0, 16 kat daha küçük olmasına rağmen 11 kıyaslamadan 9’unda GPT3’ten daha iyi performans göstermektedir.

Website

T0pp by BigScience Hakkında

T0, doğal dil istemlerinde belirtilen çok sayıda farklı görev üzerinde eğitilmiş bir dizi kodlayıcı-kod çözücü modelidir. Çok sayıda İngilizce denetimli veri kümesini, her biri farklı formülasyonlar kullanan birden fazla şablona sahip istemlere dönüştürüyoruz. Bu yönlendirilmiş veri kümeleri, bir modelin doğal dilde belirtilen tamamen görünmeyen görevleri yerine getirme yeteneğini kıyaslamaya olanak tanır. T0’ı elde etmek için, birçok farklı NLP görevini kapsayan bu çoklu görev karışımı üzerinde önceden eğitilmiş bir dil modeline ince ayar yapıyoruz.Kullanım amaçlarıSorgunuzu doğal dilde belirterek görevler üzerinde çıkarım yapmak için modelleri kullanabilirsiniz ve modeller bir tahmin üretecektir. Örneğin, “Bu inceleme olumlu mu yoksa olumsuz mu? İnceleme: bu satın alacağınız en iyi dökme demir tavadır” ve model umarım “Olumlu” üretecektir.