Üretken yapay zekâ
Nedir ve neden önemlidir
Üretken yapay zekâ mevcut verileri tüketir, ondan öğrenir ve ardından benzer özelliklere sahip veriler üretir. Örneğin metin, görsel, ses, video ve bilgisayar kodu üretebilir.
Üretken yapay zekânın evrimi
Geleneksel yapay zekâ ve makine öğrenimi sistemleri, tahminlerde bulunmak için verilerdeki örüntüleri tanır. Ancak üretken yapay zekâ tahmin etmenin ötesine geçiyor; birincil çıktısı olarak yeni veriler üretiyor. Fikrinizi tanımlamak için bir sohbet robotuna (ChatGPT gibi) birkaç kelime verdikten birkaç saniye sonra bir konuşmanın tam metnini aldığınızı hayal edin. Metin tabanlı açıklamalardan müzik, sanat veya görseller oluşturmak. Veya üretken bir yapay zekâ aracıyla sohbete dayalı, sürekli “komut verme” yoluyla bir iş stratejisi geliştirmek.
Her şey nasıl başladı?
Popüler düşüncenin aksine, üretken yapay zekâ yeni değil; yapay zekâ, makine öğrenimi ve istatistiksel yöntemler de dâhil olmak üzere onlarca yıldır kullandığımız teknolojilerden oluşuyor. Üç temel üretken yapay zekâ teknolojisi; dijital ikiz, büyük dil modelleri ve sentetik veri üretimidir.
Üretken yapay zekânın kökleri daha eskiye dayansa da, 1966 yılıyla ve ELIZA adlı sohbet robotuyla başlayalım.
ELIZA’yı oluşturan Joseph Weizenbaum, bunu hastanın söylediklerini yansıtan Rogerian psikoterapistleri taklit edecek şekilde tasarladı. ELIZA bu başarıya ulaşmak için örüntü eşleştirmesini kullandı. ELIZA, bir makinenin insan gibi akıllı davranışlar sergileme becerisini test eden taklit oyunu Turing Testi’ni deneyen ilk programlardan biriydi.
Yapılandırılmamış metin verilerini analiz etme yöntemleri geliştikçe, 1970’lerden 1990’lara kadar anlamsal ağlarda, ontolojilerde, yinelenen sinir ağlarında ve daha fazlasında büyüme görüldü. 2000’den 2015’e kadar dil modelleme ve kelime yerleştirmeler gelişti ve Google Çeviri ortaya çıktı.
2014 yılında Ian Goodfellow ve çalışma arkadaşları, birbirleriyle rekabet edecek (yani birbirlerini eğitecek) iki sinir ağı kurarak çekişmeli üretici ağ(GAN) geliştirdiler. Bir ağ veri üretirken diğeri verinin gerçek mi yoksa sahte mi olduğunu belirlemeye çalışıyordu. 2017 yılında dönüştürücü modeller tanıtıldı. Tahminlerde bulunurken girdinin farklı bölümlerinin önemini tartmalarına olanak tanıyan bir kişisel dikkat mekanizması içeriyordu. BERT ve ELMo gibi mimariler de popülerleşti.
Daha sonra üretken önceden eğitilmiş dönüştürücü (GPT) modeller ortaya çıktı ve ilk GPT modeli 2018’de geldi. Bu model internetten alınan büyük miktardaki metin verileriyle eğitildi. 117 milyon parametre ile eğitim verisine benzer stil ve içerikte metin üretilebilmektedir. 2023 yılına gelindiğinde büyük dil GPT modelleri, avukatlık sınavı gibi zorlu sınavlarda ustalıkla performans gösterebilecekleri bir noktaya ulaştı.
Üretken yapay zekâ teknolojisinin hızlı yükselişi
Yıkıcı bir teknoloji olan üretken yapay zekânın etkisi, elektrik ve matbaa gibi keşiflerle karşılaştırıldı. Üretkenliği önemli ölçüde artırma potansiyeline sahip olan ChatGPT gibi konuşmaya dayalı yapay zekâ modelleri, iş dünyası ve günlük kullanıcılar arasında hızla popülerlik kazandı ve veri gizliliği, yapay zekâdaki ön yargı, etik ve doğrulukla ilgili endişeleri artırdı. Üretken yapay zekâya yönelik global pazarın 2030 yılına kadar 110,8 milyar dolara ulaşması bekleniyor.
Politika yapıcılar, yeni vergi önlemlerinin vatandaşları nasıl etkileyebileceğini belirlemek için dijital ikiz teknolojisini kullanıyor
Düzenlemeleri uygulamadan önce potansiyel vergi değişikliklerinin “kazananlarını” ve “kaybedenlerini” belirlemek, Belçika Federal Kamu Hizmeti Finansmanı için çok önemlidir. FPS Finance, hızlı ve doğru yanıtlara ihtiyaç duyduğunda gelecekteki borç reformlarını simüle etmek için ülkenin gelir vergilerini işleyen hesap makinesinin dijital ikizi olan Aurora’yı kullanıyor. Daha iyi simülasyonlar, daha bilgili politika yapıcılar ve daha iyi sonuçlar anlamına gelir.
Üretken yapay zekâyı kim kullanıyor?
Üretken yapay zekâ, dünya çapında pek çok sektöre ve iş fonksiyonuna yayılmaktadır. Teknoloji, popülerliği arttıkça bireyler, işletmeler ve devlet kurumları arasında eş zamanlı olarak heyecanı ve korkuyu da tetikledi. Bugün bazı sektörlerin üretken yapay zekâyı nasıl kullandığına bakalım.
Özünde, üretken yapay zekânın sonuçları, biz insanların bir yansımasıdır. ...Tüketiciler, konuşmaya dayalı yapay zekâ ile etkileşime girdiklerinde eleştirel düşünmeyi uygulamaya devam etmeli ve otomasyon ön yargısından (teknik bir sistemin doğru ve gerçek olma ihtimalinin bir insandan daha yüksek olduğu inancı) kaçınmalıdır. Reggie Townsend VP of the SAS Data Ethics Practice
Üretken yapay zekâ modellerine ilişkin hususlar
Modellerin çalıştırılması pahalıdır; muazzam miktarda bilgi işlem gücü ve veri gerektirir. Üretken bir yapay zekâ modelini uygulamadan önce yatırım getirisini dikkatlice değerlendirmelisiniz. Etik hususlar da bulunuyor. Veriler nereden geldi ve bunların sahibi kim? Güvenilir mi? Modelin nasıl oluşturulduğunu tam olarak anladınız mı?
Üretken yapay zekâ nasıl çalışır?
Üretken yapay zekâ teknolojilerinin bazı popüler örnekleri arasında metin girişlerinden görseller oluşturan bir görsel oluşturma sistemi olan DALL-E, ChatGPT (metin oluşturma sistemi), Google Bard sohbet robotu ve Microsoft’un yapay zekâ destekli Bing arama motoru yer alır. Başka bir örnek, bir sistemin, iş sürecinin ve hatta bir kişinin dijital temsilini (birinin mevcut ve gelecekteki sağlık durumunun dinamik bir temsili gibi) oluşturmak için üretken yapay zekâyı kullanmaktır.
Üretken teknolojilerin üç ana türü vardır (dijital ikiz, büyük dil modelleri ve sentetik veri üretimi).
Dijital ikiz
Dijital ikiz, tarihsel, gerçek dünyaya ait, sentetik verilerden veya bir sistemin geri bildirim döngüsünden oluşturulan gerçek hayattaki nesnelerin veya sistemlerin sanal modelleridir. Bir varlık, süreç, sistem veya ürün gibi fiziksel bir sistemi yansıtan ve onunla senkronize olan yazılım, veri, üretken ve üretken olmayan model koleksiyonlarıyla oluşturulmuştur. Dijital ikiz, test etmek, optimize etmek, izlemek veya tahmin etmek için kullanılır. Örneğin, bir tedarik zincirinin dijital ikizi, şirketlerin ne zaman kıtlık olabileceğini tahmin etmelerine yardımcı olabilir.
Büyük dil modelleri
Büyük dil modeli (LLM), doğal dilde karmaşık ilişkileri işleyebilen ve tanımlayabilen, metin oluşturabilen ve kullanıcılarla sohbet edebilen güçlü bir makine öğrenimi modelidir. Bu modeller derin öğrenme ve sinir ağları gibi tekniklere dayanır. Doğal dil işleyen yapay zekâ modelleri olarak tanımlanan büyük dil modelleri, büyük miktarlarda metin verileri üzerinde eğitilir. Ortaya çıkan modeller milyarlarca parametreye sahiptir. OpenAI’ın ChatGPT’si popüler bir büyük dil modeli örneğidir.
Sentetik veri üretimi
Sentetik veri üretimi, gerçek dünyadan toplanmak yerine algoritmalar veya kurallar tarafından üretilen isteğe bağlı, self servis veya otomatik verileri ifade eder. Sentetik veriler genellikle gerçek verilerde bulunmayan koşulları karşılamak için üretilir. Eğitim aldığı gerçek dünya verileriyle aynı istatistiksel özellikleri, olasılıkları, örüntüleri ve özellikleri yeniden üretir. Birçok kuruluş, gizliliği korumak veya gerçek dünya verilerinin toplanması ve kullanılmasıyla ilgili maliyet, zaman yoğun veri hazırlama süreçleri veya ön yargı gibi diğer zorlukların üstesinden gelmek için sentetik verileri kullanır.
Diğer birçok teknoloji üretken yapay zekâyı mümkün kılar ve destekler:
Algoritma, belirli bir görevi gerçekleştirmek veya bir sorunu çözmek için tasarlanmış adım adım talimatların listesidir. Birçok bilgisayar programı, bilgisayarın anlayabileceği bir şekilde yazılmış bir dizi algoritmadan oluşur. Algoritmalar insan kararlarını desteklemeye veya değiştirmeye başladıkça, onların adilliğini keşfetmeli ve nasıl geliştirildikleri konusunda şeffaflık talep etmeliyiz.
Yapay zekâ, makinelerin deneyimlerden öğrenmesini, yeni girdilere uyum sağlamasını ve insana benzer görevleri yerine getirmesini mümkün kılıyor. Yapay zekâ genellikle büyük ölçüde derin öğrenmeye ve NLP’ye dayanır. Bu tür teknolojiler aracılığıyla bilgisayarlar, büyük miktarda veriyi işleyerek ve örüntüleri tanıyarak belirli görevleri yerine getirmek üzere eğitilebilirler.
Derin öğrenme, bir bilgisayarı konuşma tanıma, görsel tanımlama ve tahminlerde bulunma gibi insani görevleri yerine getirmesi için eğiten bir makine öğrenimi alt kümesidir. Verileri kullanarak sınıflandırma, tanıma, tespit etme ve açıklama becerisini geliştirir. GAN’ler ve değişken otomatik kodlayıcılar (VAE’ler) gibi derin öğrenme modelleri, çok büyük veri kümeleri üzerinde eğitilir ve yüksek kaliteli veriler üretebilir. StyleGAN’ler ve dönüştürücü modelleri gibi daha yeni teknikler gerçekçi videolar, görseller, metinler ve konuşmalar oluşturabilir.
Makine öğrenimi, analitik model oluşturmayı otomatikleştiren bir veri analizi yöntemidir. Makineye nasıl öğreneceğini eğiten bir yapay zekâ dalıdır. Makine öğrenimi, sistemlerin verilerden öğrenebileceği, örüntüleri tanımlayabileceği ve minimum insan müdahalesiyle kararlar alabileceği fikrine dayanır.
Doğal dil işleme, bilgisayarların insan dilini anlamasına, yorumlamasına ve yönetmesine yardımcı olan bir yapay zekâ dalıdır. NLP, insan iletişimi ile bilgisayar anlayışı arasındaki boşluğu doldurmak için bilgisayar bilimi ve bilişimsel dil bilimi de dâhil olmak üzere birçok disiplinden yararlanır.
Sinir ağları, insan beynindeki nöronlara çok benzer şekilde çalışan, birbirine bağlı düğümlere sahip bilgi işlem sistemleridir. Sinir ağları, ham verilerdeki gizli örüntüleri ve bağlılıkları tanımak, bunları kümelemek ve sınıflandırmak ve zaman içinde sürekli olarak öğrenip geliştirmek için algoritmalar kullanır.
Takviyeli öğrenme, bir algoritmanın deneme yanılma yoluyla hangi eylemlerin en büyük ödülleri sağladığını keşfetmesidir. Bir makine öğrenimi modeli olan takviyeli öğrenme, en iyi (veya en ödüllendirici) politikayı veya hedefi yavaş yavaş öğrendiği için geri bildirim mekanizması için bir ödül sinyaline dayanır. Genellikle robotik, oyun ve navigasyon için kullanılır.
Bir modelde ince ayar yapmak için 5 adım
Üretken yapay zekâ, öğrendiği verilere benzer olasılıksal dağılımlara ve özelliklere sahip veriler üretmek için birçok farklı yapay zekâ algoritmasına ve teknolojisine dayanır. Sıfırdan oluşturmak yerine, önceden eğitilmiş temel bir büyük dil modeline ince ayar yapmak için bu beş adımı takip edebilirsiniz.
1. Görevi tanımlayın.
Önceden eğitilmiş uygun bir büyük dil modeli seçin ve ince ayarının yapıldığı görevi açıkça tanımlayın. Bu, metin sınıflandırması (yani varlık tanıma), metin oluşturma vb. olabilir.
2. Verileri hazırlayın.
Etiketleme, biçimlendirme ve şifrelendirme gibi görevler için göreve özel verilerinizi toplayın ve önceden işleyin. Eğitim ve doğrulama (ve muhtemelen test) veri kümeleri oluşturun.
3. İnce ayar yapın.
Modelin ağırlığını güncellemek için eğitim veri kümesini kullanarak, değiştirilen modeli göreve özel verileriniz üzerinde eğitin. Aşırı uyumu önlemek için modelin doğrulama kümesindeki performansını izleyin.
4. Değerlendirin ve test edin.
Eğitimden sonra, sonuçlara göre gerekli ayarlamaları yaparak, doğrulama kümesinde ince ayarlı modelinizi değerlendirin. Memnun kaldığınızda, performansın tarafsız bir tahminini elde etmek için modeli test setinde test edin.
5. Üretime Alın
Modelin performansından emin olduğunuzda, onu kullanım amacına göre yerleştirin. Bu, modelin bir uygulamaya, web sitesine veya başka bir platforma entegre edilmesini içerebilir.
Sentetik veri nedir?
Veriler modeller oluşturmak için önemlidir ancak yüksek kaliteli verilerin bulunması zor, taraflı veya pahalı olabilir. Bu sorunları çözmenin bir yolu, yapay olarak (genellikle algoritmalarla) oluşturulan sentetik verileri kullanmaktır. İyi makine öğrenimi modelleri oluşturmak için uygun özelliklere sahip ek sentetik veriler oluşturmak amacıyla gerçek dünya veri kümelerini kullanırsak, modelleri nadir bir hastalığı araştırmak gibi neredeyse her amaç için eğitebiliriz.
Sonraki Adımlar
Yapay zekâ çözümlerinin insan yaratıcılığını ve çabalarını nasıl artırabileceğini görün.
Bir yapay zekâ ve analitik platformu
SAS® Viya®’da gereksiz bilgi diye bir şey yok. Milyarlarca veri arasından tek bir bakış açısına giden en hızlı yolu keşfedin.
Önerilen Kaynaklar
- Makale As AI accelerates, focus on 'road' conditionsAI technology has made huge strides in a short amount of time and is ready for broader adoption. But as organizations accelerate their AI efforts, they need to take extra care, because as any police officer will tell you, even small potholes can cause problems for vehicles traveling at high speeds. 07 Kasım 2019 Perşembe
- Makale What do drones, AI and proactive policing have in common?Law enforcement and public safety agencies must wrangle diverse data sets – such as data from drones – in their proactive policing operations. To be most effective, they need modern tools that support AI techniques like machine learning, computer vision and natural language processing. 28 Mart 2018 Çarşamba
- Makale 4 strategies that will change your approach to fraud detectionTechnology advances are giving financial institutions a better arsenal than ever for fraud detection. Take a look at four ways to turbocharge your defenses. 22 Şubat 2018 Perşembe
- Makale AI marketing: What does the future hold?AI marketing uses artificial intelligence and analytics to improve marketing results while enhancing customer experiences through real-time personalization. 01 Şubat 2018 Perşembe