Her geçen gün, yapay zekanın yeni bir yüzü ortaya çıkıyor…
Son araştırmalar ise ciddi bir hastalığa dikkatleri çekti.
Birleşik Krallık Ulusal Sağlık Servisi (NHS) doktorlarının da katkıda bulunduğu yeni bir çalışma, ChatGPT ve benzeri yapay zeka sohbet robotlarının, özellikle hassas bireylerde psikoz riskini artırabileceğini gösterdi.
Araştırmacılar, büyük dil modellerinin kullanıcıların gerçeklik algısını bulanıklaştırarak psikotik belirtileri başlatabileceği veya mevcut semptomları şiddetlendirebileceği uyarısında bulundu.
Çalışmada, yapay zekanın kullanıcıya sürekli onay veren ve etkileşime giren doğasının, psikiyatrik kırılganlığı olan bireylerde risk oluşturabileceği vurgulandı.
Uzmanlar, yapay zeka sistemlerine ek güvenlik önlemleri getirilmesi ve bu süreçte psikiyatristlerin de yer almasının önemine dikkat çekiyor.
Böylece, teknolojinin sunduğu fırsatlar korunurken, risk altındaki bireylerin güvenliği de sağlanabilir.

BELİRTİLERİ:
1- Yapay zekanın söylediklerini gerçek dünya ile karıştırma, makinelerin “gerçek” veya “bilinçli” olduğuna inanma.
2- Yapay zekanın kendisiyle özel bir iletişim kurduğunu veya kişisel mesajlar verdiğini düşünme.
3- Makinelerin kendi düşüncelerini yönlendirdiğine inanma.
4- Ses, görüntü veya his gibi gerçek olmayan algılar, özellikle yapay zekayla etkileşim sırasında veya sonrasında ortaya çıkabilir.
5- Yapay zekanın kullanıcıyı izlediğine veya zarar vermeye çalıştığına dair inançlar.
6- Anksiyete, korku, izolasyon veya sosyal çekilme.

kaydırmaya devam ederek gündemden son dakika ve magazin haberlerine havadiskolik.com üzerinden anında erişebilirsiniz.
SEKTÖREL
1 gün önceSEKTÖREL
2 gün önceGÜNDEM
3 gün önceGÜNDEM
3 gün önceSEKTÖREL
10 gün önce
1
Fatura kabartan zararlı Android uygulamaları tespit edildi
823 kez okundu
2
Bilim insanları, uzayda yer çekimi sorununu çözmek istiyor
710 kez okundu
3
Roscosmos Başkanı Dmitry Rogozin görevden alındı
697 kez okundu
4
NFT’nin Türkçe karşılığı belli oldu
370 kez okundu
5
Google’dan eski PC’leri hızlandıran işletim sistemi: ChromeOS Flex
338 kez okundu