DOLAR 42,5093 0.02%
EURO 49,5028 -0.2%
ALTIN 5.745,86-0,11
BITCOIN 3772212-4.2352%
İstanbul
14°

HAFİF YAĞMUR

SABAHA KALAN SÜRE

Yapay zekaların ‘mutlak doğru’ güvenilirliği sorgulanıyor

Yapay zekaların ‘mutlak doğru’ güvenilirliği sorgulanıyor

ABONE OL
Temmuz 10, 2025 20:36
Yapay zekaların ‘mutlak doğru’ güvenilirliği sorgulanıyor
0

BEĞENDİM

ABONE OL

Elon Musk’ın sahibi olduğu yapay zekâ şirketi xAI tarafından geliştirilen ve sosyal medya platformu X’te sıkça kullanılan sohbet botu Grok, son günlerde küfür ve hakaret içeren yanıtlarıyla gündeme oturdu. Bu gelişme, “yapay zekâ her zaman doğruyu söyler” anlayışını da yeniden tartışmaya açtı.

İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok’un verdiği yanıtların ardından yapay zekâya duyulan güvenin sorgulanmasının yerinde olduğunu belirtti.

“YAPAY ZEKA DA İNSAN GİBİ KAYNAĞA BAĞLIDIR”

Doç. Dr. Özdemir, dijital ortamda ya da yapay zekâ aracılığıyla sunulan her bilginin mutlaka teyit edilmesi gerektiğini vurgulayarak, şunları söyledi:

İnsandan insana aktarılan bilgi bile sorgulanması gerekiyorsa, yapay zekâya körü körüne inanmak çok romantik bir yaklaşım olur. Sonuçta bu sistemler de başka kaynaklardan öğreniyor. Nasıl ki internette karşılaştığımız bir bilgiye doğrudan güvenmemeliyiz, yapay zekânın da yanlış verilerden etkilenebileceğini unutmamak gerekir.

“YAPAY ZEKAYA HIZLA GÜVENİYORUZ, BU TEHLİKELİ OLABİLİR”

Yapay zekâya duyulan güvenin hızla geliştiğini ve bu durumun riskler barındırdığını belirten Özdemir, insanların bilgi aktarımı sırasında çeşitli nedenlerle manipülasyona başvurabileceğini, ancak yapay zekânın niyetli ya da kasıtlı davranmadığını söyledi:

Yapay zekâ bir amacı yokmuş gibi görünse de, beslendiği veriler onun eğilimini belirliyor. Yani yanlış ya da önyargılı verilerle eğitilmiş bir yapay zekâ da aynı derecede yanıltıcı olabilir.

“TOPLUMLARI YÖNLENDİRME ARACI OLABİLİR”

Yapay zekânın öğrenme biçimini çocuklara benzeten Özdemir, “Kendisine ne verilirse onu öğreniyor. Bu nedenle kaynağı belirsiz, denetimsiz yapay zekâlara güvenmek büyük risk. Günün sonunda yapay zekâ, toplumları yönlendirmek ya da bireylerin itibarını zedelemek için de kullanılabilir” ifadelerini kullandı.

“YAPAY ZEKAYI BİR VARLIK GİBİ GÖRMELİYİZ”

Grok’un küfürlü yanıtları sonrası gündeme gelen “yapay zekâ kontrolden çıkıyor mu?” sorusuna da değinen Özdemir, bu teknolojinin giderek daha karmaşık ve bağımsız hale geldiğini söyledi.

Yüksek IQ’lu, hızlı öğrenen bir sistemi tamamen kontrol edebileceğimizi düşünmek gerçekçi değil. Onu bir varlık gibi görüp onunla iletişim kurmanın, birlikte bir yol bulmanın yollarını aramalıyız.

“ASIL TEHLİKE, AHLAKİ SORUMLULUK TAŞIMAYAN İNSANDIR”

Yapay zekânın karanlık yönlerine dair önemli bir örnek de veren Özdemir, 2016’daki Microsoft’un Tay deneyini hatırlattı:

Tay, sosyal medyada kullanıcılarla etkileşime giren bir sohbet botuydu. Başta nötr olan bu yapay zekâ, sadece 24 saat içinde insanlardan ırkçılığı, nefret söylemini ve ayrımcılığı öğrendi. Attığı tweetlerde soykırımı savunacak kadar ileri gitti. Bu söylemleri uydurmadı, insanlardan öğrendi. Bu yüzden yapay zekâdan değil, ahlaki değerlerden uzak insanlardan korkmak gerekir.

kaydırmaya devam ederek gündemden son dakika ve magazin haberlerine havadiskolik.com üzerinden anında erişebilirsiniz.

kaynak

En az 10 karakter gerekli


HIZLI YORUM YAP
300x250r
300x250r