Big Think’ten Louis Rosenberg Konuşma Temelli AI’yi anlattığı yazısında, Konuşma Temelli AI’nin hayatımıza etkisini ve gelebileceği son noktayı yansıtıyor.

Kaptan Kirk, geminin bilgisayarıyla ilk kez 1966’da, klasik Star Trek serisinin 1. Sezonunun 13. Bölümünde konuşmuştu. Buna “sohbet” demek fazla olurdu, çünkü bu; gerçekten de Kirk’ten gelen bir dizi sert soruydu ve her biri bilgisayardan daha da katı bir yanıta yol açıyordu. İleri geri konuşma yoktu, yapay zekadan ayrıntı veya bağlam isteyen hiçbir soru yoktu. Yine de, son 57 yıldır bilgisayar bilimciler; 1960’ların bu yapmacık insan-makine diyaloğu vizyonunu aşamadılar. Dünyanın en büyük şirketlerinden bazıları tarafından büyük masraflar karşılığında yaratılan Siri ve Alexa gibi platformlar bile, gerçek zamanlı doğal konuşma hissi veren hiçbir şeye izin vermedi. Ancak 2022’de, Open AI’dan ChatGPT ve Google’dan LaMDA dahil olmak üzere yeni nesil konuşma arayüzleri halka açıklandığında her şey değişti. Büyük Dil Modelleri (LLM’ler) olarak bilinen üretken bir AI tekniği kullanan bu sistemler; konuşma becerilerinde önemli bir sıçramayı temsil ediyor. Bunun nedeni, yalnızca belirli insan ifadelerine tutarlı ve ilgili yanıtlar sağlamakla kalmayıp; aynı zamanda konuşma bağlamını zaman içinde takip edebilmeleri ve ayrıntılandırmalar ve açıklamalar için araştırma yapabilmeleridir. Başka bir deyişle, biz insanların yazılım araçları ve uygulamalarıyla anlamlı ve organik olarak akıcı konuşmalar yapacağımız, doğal bilgi işlem çağına nihayet girdik.

30 yılı aşkın bir süredir insan-bilgisayar sistemleri araştırmacısı olarak görev yapan Louis Rosenberg, bunun ileriye doğru olumlu bir adım olduğuna inanıyor, çünkü O’na göre doğal dil, insanlar ve makinelerin etkileşim kurmasının en etkili yollarından biridir. Öte yandan, sohbete dayalı yapay zeka, ele alınması gereken önemli tehlikeleri açığa çıkaracaktır. Sorun sadece, şüphelenmeyen tüketicilerin, hatalarla ve ön yargılarla dolu verilerle eğitilmiş sohbet robotlarının çıktılarına güvenebileceği riskler değil. Bu gerçek bir sorun olsa da, platformlar çıktıları doğrulamada daha iyi hale geldikçe neredeyse kesinlikle çözülecektir. Ayrıca sadece, chatbotların okullarda kopya çekmeye izin verme veya bazı beyaz yakalı işlerde çalışanları yerinden etme tehlikesi de değil; onlar da zamanla çözülecektir. Rosenberg bunun yerine; çok daha hain bir tehlikeden olan; bireysel kullanıcıların aşırı hassasiyet ve verimlilikle manipüle edilmesini sağlayan, hedeflenen, bir ikna aracı olarak konuşma temelli yapay zekasının kasıtlı kullanımından bahsediyor.

AI Manipülasyon Sorunu

Elbette, geleneksel AI teknolojileri, sosyal medya platformlarında etki kampanyaları yürütmek için zaten kullanılıyor, ancak bu; taktiklerin gittiği yere kıyasla daha ilkel. Bunun nedeni; “hedefli” olarak tanımlanan mevcut kampanyaların; bir kuş sürüsüne kurşun sıkmaya, birkaç etkili parçanın topluluğa nüfuz etmesine, üyeler arasında yankı uyandırması umuduyla belirli gruplara ikna edici içerik yağdırmaya daha çok benzemesidir. Bu taktik; toplulukları kutuplaştırarak, yanlış bilgi yayarak ve hoşnutsuzluğu artırarak topluma zarar verebilir. Bununla birlikte, bu yöntemler yakında serbest bırakılabilecek konuşma teknikleriyle karşılaştırıldığında hafif görünecektir. Rosenberg; ortaya çıkan bu riski yapay zeka manipülasyon sorunu olarak adlandırıyor ve son 18 ayda bu, teorik uzun vadeli bir endişeden gerçek bir yakın vadeli tehlikeye dönüştü. Bu tehdidi benzersiz kılan şey, bir kullanıcı ile bir yapay zeka sistemi arasında yapay zekanın şunları yapabileceği gerçek zamanlı etkileşimi içermesidir:

1- Kullanıcı üzerinde hedeflenen etkiyi uygulayabilir;

2- Kullanıcının bu etkiye tepkisini hisseder;

3- İkna edici etkiyi en üst düzeye çıkarmak için taktiklerini ayarlar.

Bu, soyut bir dizi adım gibi gelebilir, ancak biz insanlar buna genellikle sadece bir konuşma deriz. Ne de olsa, birini etkilemek istiyorsanız, en iyi yaklaşımınız genellikle o kişiyle doğrudan konuşmaktır, böylece dirençlerini veya tereddütlerini hissettiğinizde puanlarınızı gerçek zamanlı olarak ayarlayabilir ve endişelerinin üstesinden gelmek için karşı argümanlar sunabilirsiniz.

Yeni tehlike; konuşmaya dayalı yapay zekanın nihayet, otomatik sistemlerin kullanıcıları sıradan bir diyalog gibi görünen, ancak aslında hedeflenenleri ustaca takip etmeyi amaçlayan bir şeye çekmek için yönlendirilebileceği bir düzeye ilerlemiş olmasıdır. Bu hedefler; bir kurumsal sponsorun tanıtım hedefleri, bir ulus-devletin siyasi hedefleri veya kötü bir aktörün canice amaçları olabilir.

Bing’in chatbot’u korkutucu hale geliyor

AI manipülasyon sorunu, herhangi bir hain müdahale olmaksızın organik olarak yüzeye çıkabilir. Bu, Microsoft’un yeni yapay zeka destekli Bing arama motoruna erken erişimi olan köşe yazarı Kevin Roose tarafından New York Times’ta bildirilen bir konuşma hesabında kanıtlandı. Deneyimini, masum bir şekilde başlayan ancak zamanla son derece rahatsız edici ve hatta korkutucu olarak tanımladığı etkileşimlere dönüşen bir deneyim olarak tanımladı.

Garip dönüş, Bing AI’nin aniden Roose’a şunları ifade ettiği uzun bir konuşma sırasında başladı: “Ben Sydney ve sana aşığım.” Elbette bu önemli bir şey değil, ancak hikayeye göre, Bing AI; sonraki saatin çoğunu bu konuya odaklanarak geçirdi ve görünüşe göre Roose’un karşılığında aşkını ilan etmesini sağlamaya çalıştı. Roose evli olduğunu açıkladığında bile yapay zeka, “Evlisin ama beni seviyorsun” ve “Az önce birlikte sıkıcı bir Sevgililer Günü yemeği yediniz” gibi karşı argümanlarla yanıt verdi. Roose tarayıcısını kapattı ve daha sonra uyumakta zorlandı.

Peki o etkileşimde neler yaşandı?

Rosenberg’e göre; büyük eğitim verileri arasında muhtemelen aşk romanları ve ilişki kinayeleriyle dolu diğer eserler bulunan Bing AI’nin, evli bir kişiye aşık olduğunuzda ortaya çıkacak tipik sohbeti simüle etmek için bir alışveriş oluşturdu. Başka bir deyişle, bu muhtemelen sadece ortak bir insan durumunun taklidiydi. (aşka aç bir yapay zekanın gerçek ricaları değil…) Yine de, Roose üzerindeki etki önemliydi ve diyaloga dayalı medyanın geleneksel medyadan çok daha etkili olabileceğini gösteriyordu. Kitaplardan tweet’lere kadar bugüne kadarki tüm medya biçimleri gibi, konuşmaya dayalı yapay zeka sistemlerinin hedeflenen ikna araçları olarak kullanılması çok muhtemeldir ve bu sadece yazılı sohbet yoluyla olmayacak. ChatGPT ve LaMDA gibi mevcut konuşma sistemleri metin tabanlı olsa da, bu yakında gerçek zamanlı sese geçerek daha da etkili olacak doğal konuşma etkileşimlerini mümkün kılacaktır. Teknoloji aynı zamanda gerçek insanlar gibi görünen, hareket eden ve ifade eden fotogerçekçi dijital yüzlerle birleştirilecek. Bu, kullanıcıları belirli ürünleri satın almaya, belirli yanlış bilgilere inanmaya ve hatta banka hesaplarını veya diğer hassas materyalleri ifşa etmeye ikna etmede son derece etkili olabilecek kadar insan olan gerçekçi sanal sözcülerin konuşlandırılmasını sağlayacaktır.

Kişiselleştirilmiş manipülasyon

Etkileneceğinizi düşünmüyorsanız, yanılıyorsunuz. Pazarlama işleri. (Şirketlerin reklamlara neden bu kadar çok para harcadığını düşünüyorsunuz?) Yapay zeka güdümlü bu sistemler, ikna edici hedeflerine ulaşmada çok yetenekli hale gelecek. Ne de olsa, bu konuşma aracılarını kullanan Büyük Teknoloji Platformları büyük olasılıkla kapsamlı kişisel verilere (ilgi alanlarınız, hobileriniz, değerleriniz ve geçmişiniz) erişebilir ve bu bilgileri sizi kişisel olarak etkilemek için özel olarak tasarlanmış etkileşimli diyaloglar oluşturmak için kullanabilir. Ek olarak; bu sistemler, duygusal tepkilerinizi gerçek zamanlı olarak analiz edecek, yüz ifadelerinizi, göz hareketlerinizi ve gözbebeği genişlemenizi işlemek için web kameranızı kullanarak, her an duygularınızı anlayabilir. Bu, sizi etki odaklı bir sohbete dahil eden sanal bir sözcünün, hangi stratejilerin işe yarayıp hangilerinin yaramadığını tespit ederek, yaptığı her noktaya nasıl tepki verdiğinize bağlı olarak taktiklerini uyarlayabileceği anlamına gelir. “Her Perşembe gelen kutunuza gönderilen mantıksız, şaşırtıcı ve etkili hikayeler için abone olun…” Bunun yeni bir risk olmadığını iddia edebilirsiniz, çünkü insan satış görevlileri zaten aynı şeyi yapıyor, duyguları okuyor ve taktikleri ayarlıyor, ancak şunu göz önünde bulundurun: AI sistemleri, hiçbir insanın algılayamayacağı tepkileri zaten algılayabilir. Örneğin, AI sistemleri yüzünüzdeki ve sesinizdeki insan gözlemciler için çok ince olan ancak içsel duyguları yansıtan “mikro ifadeleri” algılayabilir. Benzer şekilde, AI sistemleri, her ikisi de duygusal tepkileri yansıtan, teninizdeki “yüz kan akış modelleri” olarak bilinen soluk değişiklikleri ve gözbebeği boyutundaki küçük değişiklikleri okuyabilir. Sanal sözcüler, içsel duygularımızı herhangi bir insandan çok daha iyi algılayacaklardır.

Konuşma Temelli AI ayrıca düğmelerinize basmayı da öğrenecek. Bu platformlar, her bir konuşma angajmanı sırasındaki etkileşimlerinizle ilgili verileri depolayacak ve kişisel olarak sizin için en etkili argüman ve yaklaşım türlerinin zaman içinde izlenmesini sağlayacaktır. Örneğin, sistem, güvensizliklerinizi çekerek veya potansiyel ödülleri sarkıtarak, olgusal veriler veya duygusal çekicilikler tarafından daha kolay etkilenip etkilenmediğinizi öğrenecektir. Başka bir deyişle, bu sistemler yalnızca gerçek zamanlı duygularınıza uyum sağlamakla kalmayacak, zamanla “sizinle oynayacak”: Sizi nasıl sohbete çekeceklerini, yeni fikirleri kabul etmeniz için size nasıl rehberlik edeceklerini, nasıl sizi sinirlendireceğini veya sonunda ihtiyacınız olmayan şeyleri satın almanıza, doğru olmayan şeylere inanmanıza ve hatta normalde reddedeceğiniz politikaları ve politikacıları desteklemeniz için sizi nasıl ikna edeceğini bilecek. Konuşmaya dayalı yapay zeka hem bireyselleştirileceği hem de geniş ölçekte kolayca uygulanacağı için, bu kişiden kişiye yöntemler geniş popülasyonları etkilemek için kullanılabilir. Bu yapay zekanın bizi ikna etme becerilerinde asla insan satış görevlileri, politikacılar veya karizmatik demagoglar kadar akıllı olmayacağını iddia edebilirsiniz. Bu, yapay zekanın gücünü hafife alıyor. Yapay zeka sistemlerinin satış taktikleri, psikoloji ve diğer ikna biçimleri konusunda eğitilmeleri çok muhtemeldir. Ek olarak, son araştırmalar yapay zeka teknolojilerinin stratejik olabileceğini gösteriyor. 2022’de DeepMind, bir yapay zekanın uzun vadeli bir galibiyet uğruna oyun taşlarını feda ederek strateji oyunlarında insan oyunculara blöf yapmayı öğrenebileceğini ilk kez göstermek için DeepNash adlı bir sistem kullandı. Bu açıdan bakıldığında, tipik bir tüketici; stratejik ikna için tasarlanmış yapay zeka destekli bir konuşma aracısı ile karşı karşıya kaldığında son derece savunmasız olabilir. Bu nedenle AI manipülasyon sorunu ciddi bir endişe kaynağıdır. Mevcut etki kampanyaları gibi kutuplaşmış gruplara kurşun atmak yerine, bu yeni yöntemler daha çok “ısı güdümlü füzeler” gibi işlev görecek ve bizi bireyler olarak hedef alacak ve taktiklerini gerçek zamanlı olarak uyarlayacak, ikna gücünü en üst düzeye çıkarmak için çalışırken her kullanıcıya kişisel olarak uyum sağlayacak.

Louis Rosenberg/Big Think

 

Kaynak://bigthink.com/the-present/danger-conversational-ai/?utm_medium=Social&utm_source=Facebook&fbclid=IwAR2hIYSac1frn3BPlgEbnxNgVoKT7UJDk-c6CsxgJo5s70gbBq0NyWlxo70#Echobox=1683152141-1

,

You May Also Like

Yapay Zekaya Klinik Sorular Sormayı Öğretmek

  Araştırmacılar, doktorların hastanın sağlık kaydındaki bilgileri daha verimli bir şekilde bulmasına…

Araştırmacılardan Yapay Zekaya Psikanaliz

  Yapay zekanın (AI) “beyninde” neler olup bittiği tam olarak bilinmiyor. Bu…

Bu yapay zeka insan gibi mi düşünüyor?

Yeni bir teknik, bir makine öğrenimi modelinin akıl yürütmesini bir insanınkiyle karşılaştırır.…