Microsoft ve Nvidia'nın dönüştürücü dil modeli

Microsoft ve çip üreticisi Nvidia, insan dilini her zamankinden daha ikna edici bir şekilde taklit edebilecek geniş bir yapay zekâ yarattı.

Microsoft ve Nvidia, bugüne kadarki en büyük ve en yetenekli yapay zekâ destekli Megatron-Turing Natural Language Generation ismini verdikleri dil modelini tanıttılar. Ancak sinir ağının oluşturulmasında yer alan maliyet ve zaman, bu tür yapay zeâaların genişlemeye devam etmesinin zaman alacağı söyleniyor.

530 milyar parametre ile bugüne kadar eğitilmiş en büyük ve en güçlü monolitik dönüştürücü dil modeli olan DeepSpeed ve Megatron-Turing Natural Language Generation modeli oluyor. Buna nazaran bu yapay zekâ modellerinin eğitimini daha da paralelleştirmek ve optimize etmek için Microsoft ve NVIDIA araştırmalar için işbirliği yapmaya karar verdi.

Turing NLG 17B ve Megatron-LM'nin yerini alacak olan MT-NLG, bu türdeki mevcut en büyük modele kıyasla 3 kat daha fazla yani 105 katmana ve 530 milyar parametreye sahip ve tamamlanma tahmini, okuduğunu anlama, sağduyulu akıl yürütme, doğal dil çıkarımları, kelime anlamı belirsizliği olarak geniş bir doğal dil görevlerinde çok iyi doğruluk gösterdiği söyleniyor.

Nvidia'nın hızlandırılmış bilgi işlemden sorumlu ürün yönetimi ve pazarlama kıdemli direktörü Paresh Kharya ve Microsoft Turing ekibinin grup program yöneticisi Ali Alvi, bir blog yazısında "MT-NLG'nin yarının ürünlerini nasıl şekillendireceğini ve toplumu doğal dil işlemenin (NLP) sınırlarını daha da zorlamaya nasıl motive edeceğini dört gözle bekliyoruz. Yolculuk uzun ve tamamlanmaktan uzak, ancak neyin mümkün olduğu ve önümüzde ne olduğu bizi heyecanlandırıyor." ifadelerine yer verdi.

Türkiye metaverse'e hazır mı? [Araştırma]

Kuantum Araştırma’nın Pazarlamasyon için gerçekleştirdiği “Metaverse Kavramı Araştırması”; toplumda ve işletmelerde metaverse kavramı konusundaki algıya ve bilgi düzeyine ışık tutuyor.

Bunlar İlginizi Çekebilir