Накануне в центре скандала оказался выпускник Государственного Гуманитарного университета, который защитил выпускную работу, написанную с помощью нейросети ChatGPT, на оценку «удовлетворительно». Чем опасны нейросети и как их остановить - изучала Наталья Жадько.
Студент в итоге признался преподавателям, каким образом он написал диплом. Это вызвало неоднозначную реакцию в ВУЗе, где сейчас проводят проверку. После этого случая в университете предложили ограничить использование нейросети ChatGPT в образовательных учреждениях.
«Мне хотелось попробовать что-то новое, не писать самому, не просить кого-то написать за меня. Я подумал, что можно попробовать через чат-GPT. Если говорить про диплом, то я пишу запрос - как написать ведение, такое содержание я ожидаю увидеть в этом введении - и машина, исходя уже из этого запроса, генерирует текст по моей теме диплома», - рассказал студент Александр Жадан.
Но запретить использовать искусственных помощников совсем эксперты считают бессмысленным. После этого скандального случая, в Государственной Думе предложили другое решение – изменить формат проведения экзаменов.
«Менять экзамен, где читают написанные тексты на экзамен, где проверяют творческие способности. Если мы студентов во время экзамена спрашиваем, о том, как они понимают материал, что они нового в него внесли - никакая нейросеть за них не ответит», - сказал Олег Смолин, первый зампред комитета ГД по образованию.
А вот в одном из лицеев Нижнего Новгорода идею с использованием машинного интеллекта в процессе обучения поддерживают. О том, что школьники перестанут выполнять домашнее задание самостоятельно или бесчувственная программа и вовсе заменит педагогов здесь не опасаются. Более того, здесь предлагают идею того, чтобы нейросеть помогала выполнять рутинную работу.
И всё же чат-боты заставляют людей опасаться. Работа нейронных сетей и стремительное развитие технологии искусственного интеллекта выглядит пугающей - что если машина заменит человека или некоторые профессии. Защитники и разработчики искусственного интеллекта проблемы в этом не видят. Они считают, что человек наоборот сможет больше успевать.
Но есть и другие проблемы – нарушение авторских прав при создании того или иного контента или продукта. Например, на создателей крупнейшей нейросети владельцы одного из американских фотобанков, уже подали в суд. Причина – нарушение авторских прав на миллионы изображений, на которых обучали нейросеть. Уже сейчас эксперты утверждают, что развитие технологии машинного интеллекта требует более чёткого законодательного урегулирования.
В сентябре прошлого года в технополисе «ЭРА» продемонстрировали, как способна работать специальная нейросеть ВС РФ, распознающая огнестрельное и холодное оружие в руках человека.
© ОАО «ТРК ВС РФ «ЗВЕЗДА»