Məşhur fizik Stefan Hovkinq ingiliz “İndependent” qəzeti üçün qələmə aldığı bir məqalədə süni zəkanı texnalogiyalarının nəzarətsiz inkişafı ilə bağlı xəbərdarlıq etdi. Nobel mükafatlı alim “Süni zəka araşdırmaları böyük sürətlə davam edir. Son dövrlərdə öz-özünü idarəedən avtomobillər, bilik yarışmalarını qazanan robotlar, Siri, Google Now və Cortana kimi rəqəmsal asistanatlar kəşf edildi. Bütün bunlar süni zəka texnalogiyası sahəsində önəmli araşdırma və investisiya müharibəsinin başladığına işarə edir” dedi.
Hovkinq insanlığı bu sahədə gözləyən ən böyük təhlükənin isə süni zəkanın insan zəkasını keçməsi olduğunu söylədi. “Belə bir texnalogiya iqtisadi birjaları nəzarət altına alır. İnsanlardan daha çox kəşflər etməyə başlayır insanların yarada bilməyəcəyi silahlar kəşf edə bilərlər” dedi
Hovkinq hərkəsin bütün riskləri göz önündə tutaraq bu texnalogiyaları insanlıq üçün ən faydalı şəkildə necə inkişaf etdirə biləlirik üzərində fikirləşməsinin vacibliyini vurğuladı
Tərcümə etdi: Müşfiq Hüseynli
Məqalə müəllif hüquqları ilə qorunur istifada zamanı link elave etməklə sayta istinad mütləqdir