Работающие как чат-боты нейросети, такие как ChatGPT, могут представлять опасность для людей. Они звучат достаточно авторитетно и могут стать идеальным средством для дезинформации, заявил сотрудник Пентагона Крейг Мартелл, передает RT.
Как уточняет Breaking Defence, Мартелла встревожило неумение ChatGPT считывать контекст. В то же время нейросеть может общаться бегло и авторитетно.
«Вы верите ей, даже когда она не права. А это значит, что это прекрасное средство для дезинформации», - пояснил сотрудник Пентагона на конференции в Балтиморе.
Мартелл заявил, что «до смерти напуган» из-за того, что ChatGPT может дезинформировать доверяющих ей людей.
Издание поясняет, что предупреждение прозвучало на фоне планов американских военных использовать искусственный интеллект в разведке и боевых действиях.
Ранее премьер-министр России Михаил Мишустин заявил, что уровень внедрения искусственного интеллекта в российской экономике будет доведен до 50% в 2024 году.
© ОАО «ТРК ВС РФ «ЗВЕЗДА»