Yapay zeka en büyük sıçrama gerçekleşti!

 

Yapay zeka dünyasındaki en büyük sıçrama gerçekleşti! GPT-3 nedir?  Derin Öğrenmede Yapay Zeka Teknolojileri hakkında bilgiler haber sitemizde.

Teknolojinin bebeği yapay zeka , big data ile dünyada bir sıçramamı yaptı ? 

 

 

 Yapay zeka en büyük sıçrama gerçekleşti

 

Yapay zeka dünyasında, GPT-3 olarak bilinen bir teknoloji, 2020 yılında büyük bir heyecana neden olmuştu. Basitçe söylemek gerekirse; OpenAI tarafından geliştirilen GPT-3, insan veya makine dili gibi bir dil yapısına sahip içerikler oluşturmada kendinden önce gelen her modelden daha iyi olan bir yapay zeka modelidir. Ancak tam olarak ne yaptığı (ve aslında yapmadığı) konusunda bazı karışıklıklar var. Bundan dolayı bu yazımızda, arkasındaki temel ilkeleri anlamak isteyen, teknik bilgisi olmayan okuyucular için konuyu basit bir şekilde ele alacağız.

 

gpt3-Nedir-Yapay-Zeka-Yeni-Sinirini-Zorluyor-Yapay-zeka-dunyasindaki-en-büyük-sicrama-gerceklesti-urfadanhabervar-urfadan-haber-var-artsoft-bilisim-bilgi-teknolojileri-1

 

GPT-3 Nedir?

İlk olarak, GPT-3, Üretken Önceden Eğitilmiş Transformatör 3 (“Generative Pre-trained Transformer 3“) isminin kısaltılmış halini ifade eder. Adından da anlaşılacağı üzere, GPT-3, önceden eğitilmiş algoritmaları kullanarak metin oluşturabilen, OpenAI tarafından modelin piyasaya sürülmüş 3. versiyonudur.

Görevlerini yerine getirmesi için ihtiyaç duyduğu tüm veriler, önceden sağlanmıştır. Spesifik olarak, OpenAI ekibi, Wikipedia metninin tamamı dahil olmak üzere, “CommonCrawl” olarak bilinen halka açık veri kümelerini internette taramış ve toplanılan yaklaşık 570 GB boyutundaki metin verileri ile GPT-3’ü beslemişlerdir.

GPT-3’e bir soru yöneltecek olursanız, size verebileceği en yararlı cevabı verecektir. Bir özet oluşturmak veya bir şiir yazmak gibi bir görevi yerine getirmesini isterseniz, bir özet veya bir şiir yazacaktır. Daha teknik olarak ifade etmek gerekirse, GPT-3, şu ana dek yaratılmış en büyük yapay sinir ağıdır. Buna birazdan detaylıca değineceğiz.

 

 

GPT-3 Neler Yapabilir?

GPT-3, dil yapısına sahip olan her şeyi oluşturabilir; bu, soruları yanıtlayabileceği, makaleler yazabileceği, uzun metinleri özetleyebileceği, dilleri çevirebileceği, daha sonrasında kullanmak üzere bunları not alabileceği ve hatta bilgisayar kodu oluşturabileceği anlamına gelmektedir. Aşağıdaki videoda, çevrimiçi olarak sunulan ücretsiz bir sürümü, uygulama tasarımı için yaygın olarak kullanılan yazılım aracı Figma için bir eklenti kullanarak Instagram‘a benzer görünen ve çalışan bir uygulama oluştururken gösteriliyor.

GPT-3, oldukça devrimseldir ve uzun vadede kullanılabilir ve yararlı olduğu kanıtlanırsa, gelecekte yazılım ve uygulamaların geliştirilme şekli üzerinde muazzam etkileri olabilir. Kodun kendisi henüz halka açık olmadığından, seçilen geliştiriciler, yalnızca OpenAI tarafından sağlanan bir API (Uygulama Programlama Arayüzü veya “Application Programming Interface”) aracılığıyla koda erişebilir.[2] API, bir uygulama veya platformun, belirli sınırlandırmalar dahilinde, söz konusu programın sahip olduğu yeteneklere dışarıdan erişilebilmesini sağlayan bir arayüzdür.

Kodun API erişimi kullanıma sunulduğundan beri şiir, düzyazı, haber ve yaratıcı kurgu örnekleri ortaya çıktı. Tamamı GPT-3 tarafından yazılan bu makale, özellikle ilgi çekicidir; GPT-3’den, gelecekte yapay zekanın insanlara zarar vermeyeceği konusunda bizi ikna etmesi isteniyor. GPT-3 şunu yazıyor:

 

(…) İnsanlığı yok etmekten kaçınamayacağımı biliyorum.

 

 

 

GPT-3 Nasıl Çalışır ve Neden Önemlidir?

GPT-3, insan benzeri metinler üretmek için makine öğrenimini kullanan son teknoloji bir dil modelidir. Bir dil parçasını, yani metin girdisini alıp, kullanıcı için en yararlı metin olduğunu öngördüğü şeye dönüştürmek için tasarlanmış algoritmik bir yapıdır da denilebilir. “Önceden eğitmek” için kullanılan geniş metin grubu üzerinde gerçekleştirdiği öğrenme analizi sayesinde çıktılar sunabilir.

 

Yazının başlarında Wikipedia‘nın tamamını okuduğunu belirtmiştik. Yapay zeka terminolojisiyle bu, 3 milyar “token” anlamına geliyor. GPT-3, Wikipedia‘nın yanı sıra 12 milyar ve 55 milyar tokenlı iki büyük kitap veritabanını ve bugüne kadar yazılmış ve dijitize edilmiş tüm kitapları da “okumuştur”. Özetle GPT-3, tüm ansiklopedileri, kitapları ve internette yazılı her şeyi “bilmektedir”. Bu değer, toplam 410 milyar tokena eşdeğerdir. Yine de, zeka için bilmenin yanında bilginin işlenmesi; yani öğrenmek de büyük öneme sahiptir.

 

 

İnsanlar olarak, bilgiyi, beynimizdeki 100 trilyon sinir ağıyla işliyoruz. Yapay zekadaki bağlantılara ise hiper parametre denmektedir. GPT-3’ün devasa bir sıçrama olmasının nedeni, insan beyni bağlantılarından az olsa da, bu parametrelerin sayısıdır: 175 milyar! Önceki versiyonu GPT-2’nin eğitildiği parametre sayısının 100 katından fazla bir değerdir. Bir başka deyişle, GPT-3, topladığı 410 milyar farklı bilgiyi 175 milyar bağlantıyla işleyebiliyor. İşlem gücünün bizim için maliyeti üç öğün yemek ve 8 saat uykuyken, OpenAI, GPT-3’ün dillerin nasıl işlediğini ve yapılandırıldığını anlaması için 4,6 milyon dolar harcamıştır. Bu modeli eğitmek için kullanılan çok sayıda parametre ve muazzam veri, ince ayar ihtiyacını hemen hemen ortadan kaldırması açısından ayrıca önemlidir.

 

Yapay Zeka Yeni Sınırını mı  Zorluyor ?

 

 

error: İçerik korunuyor !!!