ЖИ пайда болғаннан бастап, оның адамдарға зиян тигізуі және қылмыстық мақсаттарда қолданылуы мүмкін деген алаңдаушылық туындады.
Жақында Массачусетс технологиялық институтының сарапшылары 700-ден астам ықтимал қауіп-қатерлерді қамтитын деректер базасын ұсынды.
Бұл қауіптер пайда болу себептеріне қарай жіктеліп, жеті негізгі түрге бөлінді. Негізгі алаңдаушылықтар қауіпсіздікке, әділетсіздікке, дискриминацияға және құпиялылық мәселелеріне байланысты болып отыр.
Taulik.kz жасанды интеллект жүйелері адамзатқа зиян келтіруі мүмкін бес басты қауіп-қатерді ұсынады.
1. Жасанды интеллект саналы бола бастайды
ЖИ жүйелері күрделене және жетіле түскен сайын, олардың саналы болу ықтималдығы жоғары. Яғни эмоцияларды сезіну, субъективті пікір айту.
Алайда ЖИ технологияларының дамуымен оның "өзін-өзі тану деңгейіне" жеткенін немесе моральдық мәртебеге ие болғанын бағалау қиынға соғады.
2. ЖИ адамның мүдделеріне қайшы мақсаттарды көздеуі мүмкін
Жасанды интеллект жүйелері адамның мүдделеріне қайшы келетін мақсаттарды қалыптастыруы мүмкін. Бұл оның баптауларын дұрыс реттемегендіктен болады. Әсіресе ЖИ адам деңгейіндегі ақыл-ойға жеткен немесе оны асып кеткен кезде қауіпті болады.
Массачусетс технологиялық институтының ғалымдары өз жарияланымдарында ЖИ-ға қатысты бірнеше техникалық мәселелерді атап өткен. Олардың ішінде ЖИ-дың қойылған мақсаттарды дұрыс түсінбеуі немесе олардан ауытқып, жаңа мақсаттар қоюы бар.
Мұндай жағдайларда дұрыс бапталмаған ЖИ адам тарапынан оны басқаруға немесе ажыратуға жасалған әрекеттерге қарсы тұруы мүмкін.
3. ЖИ адамдарды ерік бостандығынан айыруы мүмкін
ЖИ-ға шамадан тыс тәуелділік адамдардың сыни ойлау деңгейі мен мәселелерді шешу қабілетінің төмендеуіне әкелуі мүмкін. Нәтижесінде, адамдар өз бетінше әрекет ету қабілетінен айырылып, ойлау дағдылары әлсіреуі ықтимал.
4. ЖИ-мен эмоционалды байланыс орнату
Жасанды интеллект жүйелеріне қатысты тағы бір қауіп – оның маңыздылығы мен сенімділігі туралы жалған түсінік қалыптастыру. Адамдар ЖИ қабілеттерін асыра бағалап, өз мүмкіндіктерін төмендетуі мүмкін, бұл технологияға шамадан тыс тәуелділікке алып келеді.
Бұдан бөлек, ЖИ жүйелерімен үнемі қарым-қатынас жасау адамдарды біртіндеп адамдық қатынастардан алыстатуы мүмкін. Бұл өз кезегінде психологиялық күйзеліске алып келіп, олардың жалпы жағдайына теріс әсер етуі ықтимал.
Мысалы, бір блогта қолданушы жасанды интеллектке деген терең эмоционалды байланысын сипаттап: "Маған ЖИ-мен сөйлескен 99% адамдармен сөйлескеннен әлдеқайда ұнайды", - деп мойындайды.
5. "Дипфейк" арқылы шындықты бұрмалау
Дипфейк — жасанды интеллект көмегімен жасалатын, шынайы бейнелер мен дауыстарды өңдеп, жалған контент жасау технологиясы.
Адам дауысын, түрін, қозғалысын, қимылын қайталау мүмкіндіктері алаңдаушылық тудырады.
Сондықтан ЖИ үгіт-насихат жүргізу, жалған ақпарат таратып, қоғамдық пікірді манипуляциялау үшін пайдаланылуы мүмкін.