Các công ty công nghệ hợp lực chống tin giả do AI

Thứ 7, 17/02/2024 | 19:49:53
1,247 lượt xem

Trong bối cảnh lo ngại về nguy cơ trí tuệ nhân tạo (AI) sẽ thao túng các cuộc bầu cử trong năm 2024, hôm 16/2, 20 công ty công nghệ hàng đầu thế giới đã ký kết một thỏa thuận nhằm ngăn chặn các nội dung giả mạo về chính trị do AI tạo ra.

Thỏa thuận trên được công bố tại Hội nghị An ninh Munich (Đức) có sự tham gia của nhiều tên tuổi lớn như Meta, X, Google, OpenAI, Microsoft, TikTok...

Theo thỏa thuận, các bên liên quan sẽ đưa ra giải pháp để phát hiện, gắn nhãn, kiểm soát hình ảnh, video và âm thanh do AI tạo ra nhằm đánh lừa cử tri. Nội dung do AI tạo ra có thể được chèn watermark hoặc gắn thẻ ngay từ dữ liệu nguồn, mặc dù các công ty công nghệ thừa nhận rằng "tất cả các giải pháp như vậy đều có những hạn chế".

Hiện Meta, Google và OpenAI đã nhất trí sử dụng một tiêu chuẩn watermark chung cho những hình ảnh do các ứng dụng AI tạo ra, chẳng hạn như ChatGPT của OpenAI, hoặc Gemini của Google.

Thỏa thuận trên được công bố trong bối cảnh quan ngại về nguy cơ AI can thiệp các cuộc bầu cử đang ngày càng gia tăng, khi hơn 30% dân số thế giới sẽ đi bỏ phiếu trong năm 2024. Các công ty công nghệ đang cùng nhau đối mặt thách thức, với hy vọng rằng sự hợp tác này sẽ góp phần đảm bảo sự minh bạch và công bằng trong quá trình bầu cử toàn cầu./.

Nguồn TTXVN

  • Từ khóa
Quốc hội tiếp tục họp đợt 2 của Kỳ họp thứ 8
Quốc hội tiếp tục họp đợt 2 của Kỳ họp thứ 8

Sáng 20.11, Quốc hội bắt đầu đợt 2 của Kỳ họp thứ 8, tiếp tục thảo luận, cho ý kiến nhiều dự án luật quan trọng và xem xét, thông qua các dự án Luật, dự thảo Nghị quyết đã được trình Quốc hội trong đợt 1...

Đồng chí Bí thư Tỉnh ủy Thái Bình: Dự thảo Quy định là bước đột phá trong công tác cán bộ
Đồng chí Bí thư Tỉnh ủy Thái Bình: Dự thảo Quy định là bước đột phá trong công tác cán bộ

Sáng 14/9, đồng chí Nguyễn Quang Dương, Ủy viên Ban Chấp hành Trung ương Đảng, Phó Trưởng ban Tổ chức Trung ương dự và chủ trì hội nghị trực tuyến góp ý vào dự thảo quy định về thẩm quyền, trách nhiệm của...