Глава відділу Пентагону, який відповідає за розробки, пов’язані зі штучним інтелектом, заявив, що генеративний штучний інтелект може стати ідеальним інструментом для дезінформації.
«Так, я наляканий до смерті. Це моя думка», — заявив Крейг Мартелл, головний фахівець Міністерства оборони з цифрових технологій і штучного інтелекту, коли його запитали про генеративний штучний інтелект.
Він заявив, що такі мовні моделі ШІ, як ChatGPT, створюють реальну проблему: вони не розуміють контексту, а люди сприйматимуть їхні слова як факт.
«Це мій найбільший страх перед ChatGPT, — сказав він. — Він був навчений вільно висловлювати свої думки. Говорить вільно й авторитетно. Таким чином, ви вірите в те, що говорить ChatGPT, навіть коли інформація неправильна. І це означає, що це ідеальний інструмент для дезінформації… Нам дійсно потрібні інструменти для виявлення подібних ситуацій. І в нас немає цих інструментів. Ми відстаємо в цій боротьбі».
Він закликав фахівців створити інструменти, необхідні для забезпечення точності інформації, отриманої з усіх генеративних моделей ШІ — від тексту до зображень.