Məşhur fizik Stefan Hovkinq ingiliz “İndependent” qəzeti üçün qələmə aldığı bir məqalədə süni zəkanı texnalogiyalarının nəzarətsiz inkişafı ilə bağlı xəbərdarlıq etdi. Nobel mükafatlı alim “Süni zəka araşdırmaları böyük sürətlə davam edir. Son dövrlərdə öz-özünü idarəedən avtomobillər, bilik yarışmalarını qazanan robotlar, Siri, Google Now və Cortana kimi rəqəmsal asistanatlar kəşf edildi. Bütün bunlar süni zəka texnalogiyası sahəsində önəmli araşdırma və investisiya müharibəsinin başladığına işarə edir” dedi.
Bütün bu keşflərin gələcək faydalarının çox böyük olduğunu qəbul edən Hovkinq “bu texnalogiyalar xəstəlikləri, müharibələri sonlandıra bilər. Süni zəka insan tarixinin ən böyük və önəmli naliyyəti ola bilər” dedi
SONUMUZ DA OLA BİLƏR
Ancaq Zamanın Qısa Tarixi adlı kitabı ilə məşhurlaşan alim bu böyük naliyyətin insan irqinin son naliyyəti ola biləcəyini də diqqət çəkdi.
Süni zəka texnalogiyasını böyük qırğınlara səbəb ola biləcəyini iddia edən 72 yaşlı Hovkinq “Yaxın gələcəkdə ordular öz-özünə hədəfləri məhv etmə qərarı qəbul edə biləcək silahlar kəşf etməyə çalışır. Birləşmiş Millətlər Təşkilatı və Human Rights Watch hələ indidən bu kimi silahların qadağan olunması üçün razılıq imzalamağı irəli sürmüşdür” dedi
ƏGƏR SÜNİ ZƏKA NƏZARƏTDƏN ÇIXARSA
Hovkinq insanlığı bu sahədə gözləyən ən böyük təhlükənin isə süni zəkanın insan zəkasını keçməsi olduğunu söylədi. “Belə bir texnalogiya iqtisadi birjaları nəzarət altına alır. İnsanlardan daha çox kəşflər etməyə başlayır insanların yarada bilməyəcəyi silahlar kəşf edə bilərlər” dedi
Hovkinq hərkəsin bütün riskləri göz önündə tutaraq bu texnalogiyaları insanlıq üçün ən faydalı şəkildə necə inkişaf etdirə biləlirik üzərində fikirləşməsinin vacibliyini vurğuladı
Tərcümə etdi: Müşfiq Hüseynli
Məqalə müəllif hüquqları ilə qorunur istifada zamanı link elave etməklə sayta istinad mütləqdir