СhatGPT боты оқудағы плагиат қаупін күшейтті ме?

СhatGPT боты оқудағы плагиат қаупін күшейтті ме?

ашық дереккөзі

Ақбаян Арапшаева. KAZGUU Newsroom Технологиялық прогресс үнемі адамды жұмыссыз қалдыру қаупін тудырады. Өткен жылдың қараша айында жасанды интеллектке негізделген ChatGPT чатботы нарыққа еніп, ақпарат жинау, игеру және тұтынуда төңкеріс жасағаны белгілі. Сол сәттен бастап түрлі академиялық ортада, әсіресе, академиялық адалдыққа кері әсері болары жайлы жүйелі талқылаулар айтыла бастады. Chatbot адам мен компьютер коммуникациясына негізделген жасанды интеллектінің NLP (natural language processing – табиғи тілді өңдеу) тармағындағы ірі жобалардың бірі. Оны америкалық OpenAI компаниясы құрған. Аты айтып тұрғандай, чат-бот қолданушының сұрағына қарай жауап береді. Оның көмегімен, өлең жазуға, қойылым сценарийін дамытуға және жеке жаттығу бағдарламасын дайындауға болады. OpenAI дерегіне сенсек, ChatGPT қолданушыларының саны іске қосылғаннан кейін небәрі 2 айда 100 миллионға жеткен. Ал америкалық Similarweb дата анализ компаниясының ақпаратына орай, аталмыш чат-бот қаңтар айында 590 миллион көрілім, ал 100 миллион тұрақты қолданушысы болыпты. Чат-бот тапсырмаға орай жауап жазады. Сондықтан мектеп оқушылары мен студенттердің ең сүйікті көмекшісіне айналып үлгерді. Ал оқытушылар мен профессорлар жазбаша тапсырманың кім орындағанын, яғни плагиат деңгейін анықтай алмай әлек. Бірақ бот мүмкіндігі 2021 жылдың соңына дейінгі ақпарат легімен шектеледі. Яғни қолданушы одан 2022 жылдан бергі оқиғалар мен ғылыми ашулар жайлы сұраса, ақпарат берілмейді. KAZGUU университетінің философия профессоры Дмитрий Мельников жасанды интеллектің пайда болуын үлкен мәселе ретінде қарастырып отыр. Жақын болашақта нейрон желісі адам жазған мәтіннен ажырата алмайтындай деңгейге жетуі мүмкін. “Көрдіңіз бе, қандай парадокс туындап отыр? Біз жаңа технологияларды қашықтықтан білім беруді жүзеге асыратын ыңғайлы әрі оңай, тіпті арзан құрал ретінде қарастырып едік. Бірақ қазір плагиат жасау мүмкіндігі бізді өзара әрекеттесудің дәстүрлі түрлеріне қайтарайын деп отыр”, – деді профессор Newsroom тілшісіне. Мельниковтің пікірінше, әзірше чатботтың жұмысын ажыратуға болады. Бірақ оны кейін студентке дәлелдеу қиындық тудырады. Назарбаев университетінің Жаратылыстану, әлеуметтік және гуманитарлық ғылымдар мектебі профессоры Сарқыт Қалымұлының айтуынша, чат-бот қазақ тіліндегі тапсырмаларға аса қаупі болмайды.

“Бұл тек ағылшын тілінде өтетін дәрістерге қатысты”, – деді С.Қалымұлы.
Қарағанды қаласындағы “ШАГ” компьютерлік білім мектебіне баратын 8-сынып оқушысы Тәжіғали Райымбек достары чат-ботты оқу тапсырмаларын орындауға жаппай қолданып жатқанын айтады.
“Ол басқа технологияларға қарағанда нағыз төңкеріс жасады деуге болады. Себебі ол әртүрлі боттардан құрылған. ChatGPT тек қана SEO-ға арналмаған, тіпті компьютерлік код та жаза алады”, – деді мектеп оқушысы.
Тимур Бектұр есімді IT ағартушы да чат-боттың төңкеріс алып келген технология бастамасы екеніне сенеді. Оның айтуынша, чат-бот “адам сияқты әңгіменің желісін үзбей, алдыңғы сұрақты еске ала жауап бере алады”.
“ChatGPT – large language model архитектурасында үлкен датасеттен  құрастырылған. 750 гигабайттан астам ашық кітапханалардың, академиялық құжаттардың мәліметтерімен жұмыс істейді”, – деді Т.Бектұр Newsroom тілшісіне.
KAZGUU университетіндегі Ғылым және этика комитеті мүшесі Аида Әнуарбекқызы “Opean AI” компаниясы ChatGPT көмегімен құрылған мәтінді анықтауға арналған AI Text Classifier құралын шығарғанын айтты.
“Көп студент кілтті сөздерді дұрыс пайдалана білмегендіктен, көбіне қателіктерге ұрынып жатады. Нейрон желісі қажет нәрсені жасап беру үшін оған дұрыс тапсырма қоя білу маңызды”, – деді ол.
Университет өкілінің айтуынша, плагиатқа жол бермеу үшін оның алдын алу шараларын бастап кеткен. Оқытушылар қажет болғанда “Opean AI” компаниясы өзі дайындаған ChatGPT көмегімен құрылған мәтінді анықтауға арналған AI Text Classifier құралын пайдалады екен. Одан бөлек, университет студенттеріне берілетін үй тапсырмалары жалпы курс барысында қойылатын бағаның 20 пайызынан аспауы қажет деп бекітілген.

Loading...