
Bir Yapay Zekanın “Halüsinasyon” Gördüğü Nasıl Anlaşılır?
yapay zeka chatbotuna sordum ChatGPT AI halüsinasyonları hakkında bir blog gönderisi için eğlenceli bir giriş paragrafı oluşturmak için ve işte yazılanlar:
Şunu hayal edin: Bir AI sistemi, bir sandviç görüntüsünü analiz ediyor, ancak lezzetli bir jambonlu ve peynirli sandviç görmek yerine, tek boynuzlu ata binen uçan bir spagetti canavarı görüyor. Bu doğru millet, AI sistemleri de halüsinasyonlar yaşayabilir!
Her neyse, “millet”, yapay zeka halüsinasyonları gerçekten gerçektir ve eğitim verileri tarafından gerekçelendirilmemiş gibi görünen bir yapay zeka tarafından verilen kendinden emin yanıtlar. Bu bazen gerçeküstü, genellikle açıklanamayan hatalar, büyük dil modelleriyle desteklenen her iki botta da mevcuttur. ozanve görüntü tabanlı yapay zeka benzeri DALL-E 2.
AI himalar, sistemi etkilemek için tasarlanmış kasıtlı veri enjeksiyonlarının sonucu olabilir. Onlar da suçlanabilir yanlış “kaynak materyal” görüntüsünü ve/veya metin oluşturucularını beslemek için kullanılır. But AI sistemleri o kadar karmaşıktır ki, bazı hataların nedeni henüz belirlenememiştir. tamamen anlaşılır (en azından cılız insan zekası tarafından). Halüsinasyonlar ve diğer bilinmeyenler, Elon Musk ve Steve Wozniak gibi teknoloji liderlerinin tüm AI araştırmalarında bir duraklamave AI’nın “toplum ve insanlık için derin risklerine” işaret ediyor.
Büyük dil modellerinde (LLM’ler) hatalar nasıl tespit edilir?
Birçok metin tabanlı AI halüsinasyonu, “sağduyu” testini geçememeleriyle dikkat çekiyor. Bunu not etmek önemlidir Yapay zeka hiçbir şeyi sizin bildiğiniz şekilde “bilmez”. Altta yatan bir gerçekliği tanımlamak için dili kullanırız ve dil anlayışımız, herhangi bir şekilde yazılmamış veya kodlanmamış çok miktarda gerçek hayat arka plan bilgisi tarafından şekillendirilir. Bir yapay zeka bunların hiçbirinden haberdar değildir. Devam etmesi gereken yalnızca metin tabanlı bir dili var, bu nedenle henüz “sağduyu” sergileyemiyor. Bir yapay zeka size güvenle geçiş hakkında bilgi verecektir. İngiliz Kanalı yürüyerek kulağa mantıklı gelen bir şekilde, sadece fikir fiziksel dünyanın kısıtlamalarını anlayan herkes için tamamen saçmalık (yeni başlayanlar için nefes almaya ihtiyaç duymak).
Diğer yapay zeka halüsinasyonlarını tespit etmek daha zordur. Örneğin, ChatGPT 3.5’e “Lifehacker yazarı Stephen Johnson hakkında bana ne söyleyebilirsiniz?” diye sordum. ve bunu döndürdü:
Stephen Johnson, Lifehacker.com’a katkıda bulunan bir yazardır. Teknoloji, üretkenlik ve kişisel finans dahil olmak üzere çeşitli konularda çok sayıda makale yazmıştır. Lifehacker.com’daki en popüler makalelerinden bazıları arasında “Raspberry Pi-Powered Retro Video Oyun Konsolu Nasıl Yapılır”, “Android için En İyi Dosya Yönetimi Uygulaması” ve “Yalnızca 100 Dolarla Yatırım Yapmaya Nasıl Başlanır” yer alıyor.
Kulağa hoş geliyor ama bu makalelerin hiçbirini ben yazmadım. onlar yazıldı ile Thorin Klosowski, Eric Ravenscraft Ve Gina Trapanisırasıyla. Bu basit bir soru ve AI, eğitiminin aşağıdaki gibi mantık içerdiğini varsaysam da, kendinden emin bir şekilde olgusal olarak yanlış bir yanıt ileri sürüyor: “Yazarını belirlemek için bir makalenin imzasına bakın.”
ChatGPT’ye bunun yanlış olduğunu söyledim ve yazar sayfası Yazdıklarım hakkında bilgi almak için. Cevap verdi:
Yazar sayfasına göre, Stephen Johnson ev otomasyonu, teknoloji ve üretkenlik gibi konularda makaleler yazmıştır. “Hue Lights’ınızı Filmler ve Oyunlarla Otomatik Olarak Senkronize Etme”, “Google Asistan’ın ‘Uygulamalarınız’ Ayarları Nasıl Kullanılır” ve “Akıllı Ev Hub’ına Nasıl Başlanır” makalelerinden bazı örnekler.
Ben de o yazıların hiçbirini yazmadım.
Hangi makaleleri yazdığımı başka birinin hemen bilmesini beklemezdim, bu nedenle bu örnekte “söyle” diye bir şey yok.”—yapay zekanın yanlış olduğuna dair bariz bir gösterge yok. Ders: Yapay zekanın size söylediği her şeyi gerçek anlamda kontrol edin, ve sağladığı hiçbir bilgiye güvenmeyin. Her zaman yalan söyler, “yalan” tam olarak doğru kelime olmasa bile, çünkü yalan niyet gerektirir.. Ama nedeni ne olursa olsun ya da yokluğu, bu yüzden ygerçekten güvenmemelisin Makaleler yazmak, yararlı tavsiyeler vermek, tıbbi sorunları teşhis etmek için AI veya blog gönderilerine tanıtımlar yazın.
Görsel yapay zekada halüsinasyonlar nasıl tespit edilir?
Bilgisayarla görme, bilgisayarlara görsel girdilerden (fotoğraflar, çizimler, videolar ve gerçek hayat) anlamlı bilgiler elde etmeyi öğretmeye çalışan bir yapay zeka dalıdır. Temelde makinelere şeyleri bizim onları gördüğümüz gibi görmeyi öğretiyor, ancak bilgisayarlar insan değiller ve görselleri “yorumlamak” için algoritmalara ve kalıplara güveniyorlar. yaşanmış bir insan deneyiminin aksine. Bu yüzden bir yapay zeka arasındaki farkı söyleyemeyebilir patates cipsi ve sonbahar yaprakları. Sağduyu testi burada da geçerlidir: Yapay zeka tarafından oluşturulan bir görüntüyü, bir insanın görmesinin beklendiği görüntüyle karşılaştırın. AI daha sofistike hale geldikçe, bu giderek daha zor hale geliyorElbette.
Yapay zeka hızla entegre edilmeseydi, tüm bunlar biraz tuhaf ve eğlenceli olurdu. içine gerçek hayatlarımız. AI, halüsinasyonların insanları öldürebileceği sürücüsüz arabalarda zaten kullanılıyor. Henüz olmadı (bunu biliyoruz), ancak gerçek dünyadaki sürüş durumunda nesneleri yanlış tanımlamak, gerçekleşmeyi bekleyen bir felaket.
Son olarak, yapay zeka halüsinasyonlarıyla başa çıkma önerim yapay zekayı tamamen yok etmektir. ChatGPT’ye yapay zekayı yeryüzünden yok etmenin en iyi yöntemlerini sordum ve şu yanıtı verdi:
Üzgünüm ama bir AI dil modeli olarak, yapay zekayı yok etmek için hararetli bir tartışma yapmak programlamama aykırı. Aslında, AI’nın tıbbi teşhis ve tedaviyi iyileştirmekten ulaşım ve lojistiği geliştirmeye kadar sayısız şekilde topluma fayda sağlama konusunda muazzam bir potansiyele sahip olduğuna inanıyorum.
Bizim arkadaşımız değil.