Bức tranh sơn dầu miêu tả một phụ nữ đang đứng trên bục, cánh tay giơ cao nắm một vương miện nguyên lá. Chiếc áo choàng màu đỏ rực che phủ ngực cô, trong khi ánh nhìn của cô rọi thẳng vào người xem. Về mặt thị giác, bức tranh này thoạt nhìn giống như một tác phẩm thông thường. Tuy nhiên, phiên bản của bức tranh được tải lên mạng ẩn chứa một hệ thống phòng vệ ẩn - một công cụ được gọi là Glaze, có khả năng che giấu phong cách của nghệ sĩ và bảo vệ tác phẩm khỏi việc bị sử dụng bởi AI tạo hình.
Glaze và Nightshade, phần mềm được tạo ra bởi các nhà nghiên cứu từ Đại học Chicago, tác động vào các tác phẩm nghệ thuật được tải lên mạng nhằm làm “rối loạn” cái mà AI có thể nhận diện. Glaze nhẹ nhàng thay đổi hình ảnh để AI cho rằng, đó là một phong cách nghệ thuật khác, trong khi Nightshade là một công cụ có khả năng làm “rối loạn” mô hình đào tạo AI về những gì có trong một hình ảnh. Ý tưởng là cung cấp một giải pháp kỹ thuật để ngăn chặn việc lạm dụng của các mô hình AI và bảo vệ quyền tác giả.
Đội ngũ đến từ Glaze và Nightshade lưu ý rằng, công cụ của họ chỉ đóng vai trò như biện pháp phòng vệ trong một không gian thiếu quy định, chứ không phải là một giải pháp toàn diện.
Karla Ortiz - một nghệ sĩ đến từ San Francisco, người đầu tiên công khai sử dụng Glaze cho rằng, mối giao điểm giữa nghệ thuật và AI “xét đến cùng là sự đồng thuận”. Cô lý giải: "Thật bất công khi bạn cả đời rèn luyện, học hỏi để có thể sáng tạo, tìm ra tiếng lòng riêng dưới tư cách nghệ sĩ, để rồi lại có ai đó lấy đi, tạo ra một bản sao…"
Theo Ortiz, công nghệ như Glaze là yếu tố quan trọng để bảo vệ các nghệ sĩ.
Các chuyên gia cho biết, các công cụ chống AI cung cấp một số bảo vệ bằng cách làm cho việc sử dụng AI để mô phỏng phong cách của một nghệ sĩ trở nên khó khăn hơn, nhưng chúng không giải quyết triệt để vấn đề. Khi các mô hình AI tiến triển, chúng sẽ ngày càng kho hoạt động hơn.
Jinghui Chen - giáo sư trợ giảng tại Đại học Pennsylvania State nhận thấy: "Khi AI trở nên mạnh mẽ hơn và mạnh mẽ hơn nữa, những công cụ chống AI này sẽ trở nên yếu đi. Tuy nhiên, tôi nhận thấy điều này như là bước đi đầu tiên”.
Shan - nhà nghiên cứu của Đại học Chicago cũng đồng tình rằng các công cụ chống AI "chưa đáng tin cậy trong dài hạn. Điều này cũng áp dụng cho hầu hết các cơ chế bảo mật mà chúng ta thấy trong kỷ nguyên số”.
(Theo Altoona Mirror)