Об этом сообщает «Politexpert» со ссылкой на The Conversation
С каждым днем искусственный интеллект (ИИ) становится все более доступным, создавая новые возможности для манипуляций в сфере политических выборов. Искажение реальности с помощью глубоких подделок (deepfakes), синтетических голосов и фальшивых изображений — это уже не фантазия, а реальность, угрожающая стабильности демократических процессов. В условиях, когда важнейшие демократические институты подвергаются риску, необходимо задуматься о том, как предотвратить эти угрозы.
В 2024 году фальшивое сообщение от имени президента США Джо Байдена, которое касалось выборов в Нью-Гэмпшире, вызвало панический отклик среди избирателей. Использование синтетических голосов не только нарушило выборный процесс, но и поставило под сомнение саму основу демократических выборов, что, в свою очередь, свидетельствует о серьёзных рисках, связанных с развитием технологий ИИ.
Почему проблема глубокой подделки становится острее
Глубокие подделки, или deepfakes, — это медиаконтент (видео, аудио, изображения), созданный с помощью искусственного интеллекта, который имитирует реальных людей, заставляя их говорить или делать вещи, которых они не совершали. Хотя такие технологии могут быть полезными в кино или образовании, они становятся опасными, когда их используют для распространения дезинформации. Легкость создания такого контента и сложность его обнаружения создают идеальные условия для манипуляций на выборах.
Такие технологии уже используются для создания фальшивых политических заявлений и даже для фальшивых политических кампаний. В 2024 году фальшивое изображение Тейлор Свифт, поддерживающей Дональда Трампа, вызвало общественное обсуждение, несмотря на то, что это был явный обман. Это лишь один из множества примеров того, как ИИ может искажать реальность и подрывать доверие к избирательным процессам.
Отсутствие законодательных норм в Канаде
Канада не имеет четко определенных законодательных норм, регулирующих использование искусственного интеллекта в политической рекламе. В отличие от Европейского Союза, где введены обязательные маркировки для ИИ-контента, в Канаде только добровольные кодексы поведения регулируют использование синтетических медиа. Эти пробелы в законодательстве делают канадскую информационную экосистему уязвимой к манипуляциям, особенно в условиях нестабильной политической ситуации, когда выборы могут быть назначены в любой момент.
Ситуация усугубляется отсутствием жестких стандартов на платформы, которые позволяют распространять фальшивые материалы. Отсутствие механизмов быстрой реакции и отчетности в случае распространения фальшивок повышает риски для безопасности демократического процесса.
Как предотвратить манипуляции с помощью ИИ
Для борьбы с угрозами, связанными с искусственным интеллектом, Канаде необходимо принять ряд мер. Во-первых, нужно ввести законы о маркировке контента, с помощью которых будет возможно идентифицировать ИИ-созданные материалы в политической рекламе. Европейский Союз уже установил такие требования, и Канаде стоит последовать этому примеру.
Во-вторых, необходимо инвестировать в развитие технологий для обнаружения deepfakes. Канадские исследователи уже активно работают в этой области, и дальнейшее продвижение этих технологий поможет быстрее выявлять фальшивки. Помимо этого, программы по обучению граждан искусственному интеллекту и распознаванию фальшивок должны стать обязательной частью образовательных программ.
Поддержка выбора избирателей в эпоху ИИ
Современные демократические процессы строятся на доверии граждан к институтам власти и информации, которую они получают. Важно, чтобы избиратели могли доверять информации, на основе которой принимаются решения. Для этого нужно развивать системы проверки фактов и усилить ответственность платформ за распространение недостоверной информации.
Напомним, ранее мы писали о том, как AI преодолел эстетический тест Тьюринга.
Комментировать