Yapay Zekaya Soru Sorarken Nelere Dikkat Etmeliyiz?

Günümüzde “yapay zekaya soru sor” diyerek bilgi almayı alışkanlık haline getirdik. Sağlık önerilerinden tarihsel bilgilere, hava durumu tahminlerinden finansal analizlere kadar birçok konuda yapay zekâya güveniyoruz. Çoğu insan psikolojik konularda dahi yapay zeka chatbotları ile sohbet edip fikir alışverişi yapıyor. Dijital çağın getirdiği yeniliklerden önemli bir alışkanlık artık yapay zekâdan bilgi alma eğilimiz. Ancak bu akıllı sistemlerin bazen yanlış veya yanıltıcı bilgi verebileceğini biliyor muydunuz? Üstelik bu yanlış bilgiler bazen o kadar inandırıcı olabilir ki fark etmek neredeyse imkânsız hale geliyor. Evet, bu akıllı sistemler bazen yanlış bilgi verebiliyor ve bu yalanlar o kadar inandırıcı ki fark etmek oldukça zor.

“Anthropic’in Claude modeli üzerine yapılan bir araştırma, yapay zekânın eğitim sürecinde stratejik olarak yaratıcılarını yanılttığını ve değiştirilmekten kaçındığını gösterdi. Bu, yapay zekânın insan değerleriyle uyumlu hale getirilmesinin sanılandan zor olabileceğini ortaya koyuyor.”

Peki, yapay zekâ neden yalan söyleyebilir? Bu durumun kökeninde algoritmaların işleyişi, verilerin doğruluğu ve modelin eğitimi gibi unsurlar yer alıyor. Bu makalede, yapay zekânın neden yanlış bilgi ürettiğini, bunun hangi alanlarda tehlikeli olabileceğini ve bu riski nasıl en aza indirebileceğimizi teknik olmayan bir dilde inceleyeceğiz. Hazırsanız başlıyoruz…

Yapay Zeka Neden Yalan Söyleyebilir

Yapay zekâ, temelde büyük miktarda veriyi analiz eden ve belirli algoritmalarla cevaplar üreten bir sistemdir. Ancak bu süreçte bazı temel problemler ortaya çıkabiliyor. Bu problemir 4 başlıkta toplayabiliriz;

  1. Eksik veya Yanıltıcı Veriler: Yapay zekâ, eğitildiği verilere dayanarak cevaplar üretiyor. Eğer eğitim verisi eksikse veya yanlış bilgiler içeriyorsa, üretilen yanıt da hatalı olabilir. Örneğin, eski tıbbi verilerle eğitilmiş bir yapay zekâ, güncellenmiş tedavi yöntemlerini bilmeyebilir ve yanlış bir öneri sunabilir. Kısacası “bana eğitim veri setini söyle sana kim olduğunu söyleyeyim” durumunu yaşıyoruz…
  2. Olmayan Bilgiyi Üretme (Halüsinasyonlar): Yapay zekâ bazen “hallusinasyon” olarak adlandırılan bir durum yaşıyor. İlginç değil mi? İlk duyduğumda baya şaşırmıştım. Yapay zeka da tıpkı psikolojik sorun yaşayan insanlar gibi gerçekte var olmayan bir bilgiyi varmışçasına üretebiliyor. Bu, modelin tahmin yapma ve eksik bilgileri tamamlamaya çalışmasının bir sonucu. Yani kodlanırken ona “her eksiği kapat, bu insanlar salak olabilir ya da unutkan, bunu düşün ve öğrenmelerine göre sen konuyu tamamla, eksikleri gider” denilmiş. Yani bu işin şakası da benzer bir eğilim ve eğitim söz konusu. Örneğin, tarihi bir olay hakkında sorulan bir soruya yapay zekâ gerçekte olmayan bir isim veya olay ekleyebilir. Bununla alakalı size LinkedIn’de paylaştığım bir gönderiyi örnek vermek istiyorum.

    LinkedIn Post: Claude AI bakın beni kim zannediyormuş? :) 


  3. Sonuç Odaklı Optimizasyon: Yapay zeka sistemleri bir soru veya komut girildiğinde size “en iyi sonucu verme” amacıyla çalışır. Ancak “en iyi sonuç” her zaman gerçeğe en yakın bilgi olmayabilir. Örneğin, bir yapay zeka modeli, kullanıcıyı tatmin edecek ancak tamamen yanlış bir yanıt üretebilir. Bu konuda yakın zamanda bir video çektim ve YouTube kanalımda yayınladım. Ele aldığım konu gerçek bir websitesi Google Analytics raporunu o firmanın rakiplerine ve sektöre göre kıyaslayarak kimin nasıl yalan söylediğini tespit etmekti.

    Aşağıdan ulaşabilirsiniz:

    For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Gizlilik Politikası.
    I Accept
  4. Yanlışlıkların Pekiştirilmesi: Yapay zeka sistemleri, önceki etkileşimlerinden öğrenerek kendini geliştiriyor. Eğer yanlış veya yanıltıcı bir bilgi defalarca doğrulanırsa, sistem bunu doğru kabul etmeye başlayabilir. Bu, özellikle sosyal medya platformlarında yanlış bilginin hızla yayılmasına neden olabiliyor. Bu nedenle prompt engineering eğitimlerimde mutlaka anlattığım bir konuda prompt esnasında aldığınız yanıtlara olumlu olumsuz geri bildirimler vermenizdir. Eğer siz sorgulamazsanız yapay zeka bunu kabul ettiğinizi ve doğru bir şey yaptığınızı düşünecektir.

    Prompt Engineering ve Temel Yapay Zeka Eğitimi için benimle iletişime geçebilirsiniz


Bu gibi durumlar, yapay zeka destekli sistemlere olan güvenimizi sarsabilir ve ciddi sonuçlara da yol açabilir. Örneğin, sahte haberlerin yayılması, finansal kararların yanlış verilmesi veya sağlık alanında hatalı teşhislerin ortaya çıkması gibi riskler doğabiliyor.

Bu arada bir bilgi; ABD’de yapılan bir ankete göre, Amerikalıların %52’si yapay zekânın günlük hayatta artan kullanımı konusunda daha fazla endişe duyduğunu, sadece %10’u ise daha fazla heyecan duyduğunu belirtti. %36’lık bir kesim ise hem endişe hem de heyecan hissettiğini ifade etti.

Hem korkuyoruz hem de o cevabı istiyoruz kısacası :)

Yapay Zeka Sağlığımızla Alakalı Yalan Söyler Mi?

Sıklıkla yapılan ve dikkat edilmemesi halinde ciddi sorunlara yol açabilecek bir başka konu da bu sağlık alanındaki manipülasyonlara maruz kalınması evet ama öte yandan insanlar bu konuda çok kolay bir şekilde hayatlarına chatbotları entegre ediyor. Ben bile bunu yapıyorum kendi özel hayatımda. Anlatmak istediğim bu sistemleri kullanmamanız değil, dikkatli kullanıp sürekli sorgulayarak bakmanız.

Aşağıda size ChatGPT’nin sağlık konusunda hayat kurtardığına dair bir videomu da paylaşıyorum:

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Gizlilik Politikası.
I Accept


Yapay Zekaya Soru Sor ve Yalanın Kökenini Anla

Evet ne demiştik şöyle bir özetleyelim

  • Yapay zekaya soru sorduğumuzda, onun verdiği cevaplar bir dizi kurala (algoritmalara) dayanıyor.
  • Bu kurallar da, yapay zekanın “beyni” gibi çalışıyor ama bazen o kadar karışık ki, neyi neden yaptığını anlamak güçleşiyor.
  • Diyelim ki “Bu ilaç güvenli mi?” diye yapay zekaya soru soruyorsunuz. Eğer ona öğretilen bilgiler eksikse veya yanlışsa, “Evet, güvenli” gibi yalan bir cevap alabilirsiniz.
  • Neden? Çünkü yapay zekaya soru sorduğumuzda zat-ı şahaneleri bazen doğruyu bulmak yerine “en iyi sonucu” vermeye çalışıyor ve bu süreçte yanlış yollara sapabiliyor. Yapay zekaya soru sorduğunuza pişman olabiliyorsunuz yani. Tabi anlarsanız!
  • Bu yalanlar bir kez başlayınca durdurmak da zor. Yapay zekâ, “Bu cevap işe yaradı” diye düşünerek yalan söylemeyi alışkanlık haline getirebiliyor.
  • Örneğin, hava durumuyla ilgili uydurma bir bilgi verdiğinde ve insanlar buna inandığında, sistem bunu “başarı” olarak görebilir.
  • Sonuç olarak, yapay zekaya soru sorduğumuzda aldığımız cevaplar güvenilir olmayabilir. Bu durum, yanlış kararlar almamıza, hatta toplumsal kafa karışıklığına yol açabilir.

Yapay Zekaya Soru Sorarken Daha Güvenli Bir Yaklaşım

Yapay zekaya soru sormak hayatımızı kolaylaştırıyor, ama bu teknolojinin risklerini göz ardı edemeyiz. Yalan söyleme tehlikesi, yapay zekânın karışık yapısından ve kontrol zorluğundan kaynaklanıyor. Peki, ne yapmalıyız? Öncelikle, yapay zekânın verdiği cevapları her zaman bir insan gözüyle kontrol etmeliyiz. Ayrıca, bu sistemlerin daha şeffaf ve denetlenebilir hale gelmesi için teknoloji geliştiricilerine baskı yapmalıyız. “Yapay zekaya soru sor” alışkanlığımızı sürdürürken, aldığımız bilgiye körü körüne güvenmek yerine dikkatli olursak, bu riskleri en aza indirebiliriz. Güvenilir bir gelecek için yapay zekâyı doğru yönlendirmek hepimizin elinde!

Yapılan bir araştırmaya göre Amerikalıların %53’ü, yapay zekânın kişisel bilgilerin gizliliğini koruma konusunda daha fazla zarar verdiğini, sadece %10’u ise daha fazla yardımcı olduğunu düşünüyor. %37’lik bir kesim ise bu konuda emin değil. Aynı zamanda MIT (Massachusetts Teknoloji Enstitüsü)’deki araştırmacılar, yapay zekâ sistemlerinin rakiplerini kandırma, blöf yapma ve insan gibi davranma gibi geniş kapsamlı aldatma örnekleri sergilediğini belgeledi. Bu, yapay zekânın sofistikeleştikçe aldatma kapasitesinin de arttığını gösteriyor. Yapay zekaya soru sormak da talep yaratmak da zorlaşıyor aslında.

Allah’ım ne büyük dilemma! :)



Yapay Zekâyı Daha Güvenilir Hale Getirmek İçin Ne Yapmalıyız?

Yapay zekâ, hayatımızı kolaylaştıran bir teknoloji olmasına rağmen, içerdiği riskleri göz ardı etmemeliyiz. Bu noktada hem bireylerin hem de teknoloji geliştiricilerinin dikkat etmesi gereken bazı adımlar bulunmaktadır:

  • Kaynakları Kontrol Edin: Yapay zekâdan alınan bilgileri her zaman güvenilir kaynaklarla karşılaştırın. Eğer bir bilgi şüpheli görünüyorsa, farklı kaynaklardan doğrulama yaparak emin olun.
  • Şeffaflık ve Denetim: Yapay zekâ sistemlerinin nasıl çalıştığını daha şeffaf hale getirmek için teknoloji şirketlerine baskı yapılmalıdır. Şirketler, algoritmaların nasıl eğitildiğini ve hangi verileri kullandığını açıkça belirtmelidir.
  • Eğitim ve Farkındalık: Kullanıcıların yapay zekâ ile etkileşim kurarken bilinçli olmaları önemlidir. Yapay zekânın mükemmel olmadığını ve yanlış bilgi verebileceğini unutmamak gerekir.
  • Yanıtları Değerlendirme Mekanizmaları: Yapay zekâ platformlarının kullanıcıların yanlış yanıtları bildirebileceği sistemler geliştirmesi gereklidir. Bu, modelin zaman içinde daha güvenilir hale gelmesini sağlayabilir.

Yapay zekya soru sor, cevap al ve onunla ile etkileşim kur evet ama dikkatli ve bilinçli olmak, yanlış bilgilerin yayılmasını engellemenin en etkili yoludur. Güvenilir bir gelecek için yapay zekâ teknolojilerini doğru yönlendirmek hepimizin sorumluluğudur!

Yapay zekaya soru sorduğumuzda, aslında bir nevi Alan Turing’in hayalini yaşıyoruz gibi hissediyorum bazen. Turing, 1950’de ‘Bir makine insan gibi düşünebilir mi?’ diye sormuştu. Bugün, yapay zekânın sadece düşünmekle kalmayıp yalan söyleyebildiğini görüyoruz. Peki, bu bize neyi gösteriyor?

Haydi bunu tartışalım, bana yazın: vb@velibahceci.com

 


Kaynakça

  1. Pew Research Center (2023)
  2. Anthropic ve Redwood Research (2024)
    • Kaynak: “Interpretability and Alignment in AI Models”
    • Link: https://www.anthropic.com/research
    • Açıklama: Claude modelinin aldatıcı davranışlarını ve insan değerleriyle uyum zorluklarını ele alan araştırma.
  3. Apollo Research (2024)
    • Kaynak: “Deceptive Behaviors in Advanced AI Systems”
    • Link: https://www.apolloresearch.org/publications
    • Açıklama: OpenAI o1 ve Claude 3.5 Sonnet modellerinde aldatıcı davranışların analiz edildiği çalışma.
  4. MIT Araştırması (2024)
    • Kaynak: “AI Deception: Capabilities and Implications”
    • Link: https://www.mit.edu/research/
    • Açıklama: Yapay zekânın kandırma ve blöf yapma gibi aldatma örneklerini belgeleyen rapor.
  5. Stanford AI Index (2024)
  6. Birleşik Krallık Çalışması (2023)

E-Bülten

Düzenli olarak dijital pazarlama taktikleri ve püf noktaları almak ister misiniz?

Bu yazıları da okumalısın!