Theo Jeffrey McGregor, CEO Truepic, đây chỉ là “bề nổi” của những gì có thể xảy ra trong tương lai: "Chúng ta sẽ nhìn thấy nhiều nội dung do AI tạo ra trôi nổi trên mạng xã hội hơn, nhưng lại chưa chuẩn bị gì cho điều đó".
Công ty của McGregor đang tìm cách giải quyết vấn đề này. Truepic cung cấp công nghệ xác định hình ảnh thật hay giả qua Truepic Lens. Ứng dụng thu thập dữ liệu bao gồm ngày, giờ, địa điểm và thiết bị dùng để tạo hình ảnh rồi áp dụng chữ ký số để xác minh.
Truepic thành lập năm 2015, sớm hơn vài năm so với các công cụ tạo ảnh bằng AI như Dall-E và Midjourney. Theo McGregor, nhu cầu từ các cá nhân, tổ chức cần phải đưa ra quyết định dựa trên hình ảnh ngày càng lớn, từ công ty truyền thông đến bảo hiểm.
“Khi thứ gì cũng có thể làm giả, mọi thứ đều có thể làm giả. AI tạo sinh đã đạt được bước ngoặt về chất lượng và khả năng tiếp cận, chúng ta không còn biết được cái gì là thật khi online”, ông nhận xét.
Các hãng như Truepic đã chống lại thông tin sai sự thật nhiều năm nay nhưng sự trỗi dậy của hàng loạt công cụ AI mới với tốc độ tạo hình ảnh, bài viết nhanh chóng theo lời nhắc (prompt) của người dùng, khiến cho nỗ lực này trở nên cấp thiết hơn. Trong vài tháng gần đây, hình ảnh giả về Giáo hoàng Francis mặc áo khoác lông hay cựu Tổng thống Mỹ Donald Trump bị bắt giữ được chia sẻ rộng rãi trên mạng.
Một số nhà lập pháp kêu gọi các hãng công nghệ giải quyết vấn đề. Vera Jourova, Phó Chủ tịch Ủy ban châu Âu, kêu gọi các bên ký kết Bộ quy tắc thực hành của EU về thông tin sai lệch - một danh sách bao gồm Google, Meta, Microsoft và TikTok - "đưa ra công nghệ nhận dạng nội dung AI và dán nhãn rõ ràng cho người dùng".
Ngày càng có nhiều startup và Big Tech cố gắng thực hiện các tiêu chuẩn và giải pháp để giúp mọi người xác định xem hình ảnh hoặc video có được tạo bằng AI hay không. Nhưng khi công nghệ AI phát triển nhanh hơn con người có thể theo kịp, không rõ liệu các giải pháp kỹ thuật này có giải quyết được triệt để vấn đề. Ngay cả OpenAI, công ty đứng sau Dall-E và ChatGPT, đã thừa nhận vào đầu năm nay rằng nỗ lực của chính họ để giúp phát hiện văn bản do AI tạo ra "không hoàn hảo" và cảnh báo không nên tin vào mọi thứ.
Cuộc đua vũ trang
Có hai cách tiếp cận với vấn đề: Một dựa vào phát triển các chương trình xác định hình ảnh do AI tạo ra sau khi chúng được sản xuất và chia sẻ qua mạng; hai là tập trung vào đánh dấu ảnh là thật hay do AI tạo ra ngay từ ban đầu bằng một loại chữ ký số.
Reality Defender và Hive Moderation đang đi theo cách tiếp cận đầu tiên. Với nền tảng của họ, người dùng có thể tải ảnh lên để quét và nhận thông báo về % ảnh thật hay giả. Reality Defender cho biết họ dùng “công nghệ vân tay nội dung tạo sinh và deepfake độc quyền” để phát hiện video, âm thanh và hình ảnh do AI tạo ra.
Đây có thể là mảng kinh doanh béo bở nếu vấn đề trở thành nỗi lo thường trực của các cá nhân, doanh nghiệp. Các dịch vụ này miễn phí dùng thử sau đó tính phí. Hive Moderation thu 1,5 USD cho mỗi 1.000 hình ảnh, ngoài ra còn “hợp đồng thường niên” (có giảm giá). Giá của Reality Defender tùy theo các yếu tố khác nhau.
Ben Colman, CEO Reality Defender, cho rằng rủi ro đang nhân lên mỗi tháng. Bất kỳ ai cũng có thể làm ảnh giả bằng AI mà không cần đến bằng khoa học máy tính, thuê máy chủ, biết cách viết mã độc, mà chỉ cần tra Google. Kevin Guo, CEO Hive Moderation, gọi đây là “cuộc đua vũ trang”. Họ phải tìm ra mọi cách thức mới mà mọi người đang sử dụng để tạo nội dung giả, hiểu nó và đưa vào bộ dữ liệu để phân loại. Dù tỷ lệ nội dung do AI tạo ra hiện nay còn thấp, nó sẽ thay đổi chỉ trong vài năm.
Tiếp cận phòng vệ
Trong cách tiếp cận phòng vệ, các hãng công nghệ lớn hơn tìm cách tích hợp một loại watermark vào ảnh để xác thực nó là thật hay giả ngay khi vừa được tạo ra. Nỗ lực chủ yếu do Liên minh nguồn gốc và xác thực nội dung (C2PA) dẫn dắt.
C2PA thành lập năm 2021 để tạo tiêu chuẩn kỹ thuật giúp chứng nhận nguồn gốc và lịch sử nội dung kỹ thuật số. Nó kết hợp những nỗ lực của Sáng kiến xác thực nội dung (CAI) do Adobe dẫn đầu và Project Origin, do Microsoft và BBC hậu thuẫn, tập trung vào việc chống lại thông tin sai lệch trong tin tức kỹ thuật số. Các công ty khác tham gia C2PA bao gồm Truepic, Intel và Sony.
Dựa trên hướng dẫn của C2PA, CAI tạo công cụ nguồn mở để các công ty tạo metadata chứa thông tin về hình ảnh. Nó giúp các nhà sáng tạo chia sẻ chi tiết về cách họ tạo ra hình ảnh một cách minh bạch. Bằng cách này, người dùng cuối có thể biết được ảnh đã thay đổi gì rồi tự quyết định tính xác thực của ảnh.
“Adobe không thu tiền từ nỗ lực này. Chúng tôi làm vậy vì nghĩ nó cần phải tồn tại”, Andy Parsons, Giám đốc cấp cao tại CAI, trả lời CNN. “Chúng tôi cho rằng nó là biện pháp phòng thủ nền tảng rất quan trọng chống tại thông tin sai sự thật”.
Nhiều công ty đã tích hợp tiêu chuẩn C2PA và công cụ CAI vào ứng dụng. Chẳng hạn, công cụ tạo ảnh AI Firefly vừa được Adobe đưa vào Photoshop. Microsoft cũng thông báo các tác phẩm AI do Bing Image Creator và Microsoft Designer tạo ra sẽ chứa chữ ký mã hóa trong vài tháng tới.
Các hãng khác như Google dường như theo đuổi chiến thuật kết hợp cả hai cách tiếp cận. Hồi tháng 5, Google công bố công cụ About this image, giúp người dùng biết thời điểm bức ảnh được lập chỉ mục (index) trên Google. Ngoài ra, mọi hình ảnh do AI của Google tạo ra sẽ được đánh dấu trong tập tin gốc để cung cấp bối cảnh nếu ảnh được tìm thấy trên một nền tảng, website khác.
Dù doanh nghiệp công nghệ đang cố gắng xử lý quan ngại xoay quanh hình ảnh do AI tạo ra cũng như tính toàn vẹn của truyền thông số, các chuyên gia trong lĩnh vực nhấn mạnh họ cần hợp tác với nhau và với chính phủ để giải quyết vấn đề. Không chỉ kêu gọi các nền tảng xem xét vấn đề một cách nghiêm túc, ngừng quảng bá nội dung giả mạo, còn cần đến các quy định quản lý cũng như giáo dục.
Theo Parsons, đây không phải thứ mà một công ty, chính phủ hay cá nhân đơn lẻ nào có thể làm được. Chúng ta cần mọi người đều phải tham gia. Dù vậy, cùng lúc này, các hãng công nghệ cũng đang thúc đẩy để đưa nhiều công cụ AI hơn ra thế giới.
(Theo CNN)