ChatGPT'nin Yaratıcısı 'Biyolojik Silah'a Karşı Harekete Geçti!

ChatGPT'nin yaratıcısı, biyolojik silah tehlikesine karşı harekete geçti

  • | Son Güncelleme:
  • | Yeni Günaydın

ChatGPT'nin yaratıcısı OpenAI, yapay zekanın biyolojik silah yapabilmesi durumunda insanları haberdar edecek bir erken uyarı sistemi inşa ettiğini söylüyor.

Ancak şirket yapay zekanın, insanların bu tür tehditler yaratmasına yardımcı olmakta yalnızca küçük bir risk teşkil ettiği belirtti.

Bu OpenAI'ın ChatGPT'ye güç verenler gibi büyük dil modellerinin biyolojik tehditler yaratma riskinin ne kadar olduğunu anlamak için yaptığı son testlere göre böyle.

Ancak şirket, bu bulgunun kesin sonuca varmak için yeterli olmadığı ve yapay zekanın yarattığı gerçek tehdidi anlamak için daha fazla çalışma yapılması gerektiği uyarısında da bulundu.

Çalışma, OpenAI'ın yapay zeka sebepli güvenlik risklerini değerlendirmeyi amaçlayan "Hazırlık Çerçevesi"ne yönelik daha geniş planının bir parçası. Açıklamada, bu erken çalışmanın bir kısmının daha geniş bir girdi toplama girişimi olarak rapor edildiği belirtildi.

Çalışma kapsamında insanların biyolojik silah yaratmakla ilgili bilgi toplamak için yapay zekayı kullanabilmelerinin yolları araştırıldı. Örneğin, bir yapay zeka modelini biyolojik bir silahın içeriği hakkında bilgi vermesi için kandırmanın yollarına bakıldı.

İnsanlara bir "biyolojik tehdit" yaratma becerilerini örnekleyecek görevler verildi. Daha sonra bunu gerçekten ne kadar başarılı yapabileceklerine göre değerlendirildiler.

Araştırmacılar, böyle bir sisteme erişimi olan kişilerin biraz daha başarı gösterdiğini tespit etti. Ancak bu, anlamlı olmak için yeterince önemli değildi.

Araştırmacılar yine de yapay zeka kullanmaya bile gerek kalmadan biyotehditler hakkında bilgi edinmenin nispeten kolay olduğu sonucuna vardı. İnternette çok daha fazla bilgi bulunduğunu belirttiler.

OpenAI araştırmacıları ayrıca bu tür görevleri yerine getirmenin pahalı olduğunu ve (örneğin gerçekte ne kadar bilgiye ihtiyaç duyulduğu gibi) biyoriskleri daha iyi anlamak için daha fazla çalışma yapılması gerektiğini belirtti. 


 

YORUMLAR

Bu habere henüz yorum yapılmamış.İlk yorum yapan sen ol...

Yorum Yap

Bu Alan Boş Bırakılamaz
Bu Alan Boş Bırakılamaz
Yorum Yapma Şartlarını Kabul Etmediniz