Vào tháng trước, khi Mark Zuckerberg ở trong phiên điều trần tại Washington, anh đã lặp đi lặp lại một điệp khúc với các thành viên Quốc hội rằng, Facebook đã lên kế hoạch sử dụng trí tuệ nhân tạo để giúp giải quyết các vấn đề hóc búa nhất về tính riêng tư và bảo mật của họ.
Hôm nay, tại hội nghị nhà phát triển thường niên F8 của mình, Facebook lần đầu tiết lộ một loạt cách sử dụng AI để loại bỏ những nội dung xấu ra khỏi nền tảng của mình. Theo đó, công ty cho biết họ đang tích cực sử dụng AI để phát hiện các loại nội dung nằm trong 7 nhóm sau: hình ảnh khỏa thân, hình ảnh bạo lực, khủng bố, các phát ngôn thù địch, spam, các tài khoản giả mạo và ngăn chặn hành vi tự tử.
Trên blog của công ty, phó chủ tịch về sản phẩm, Guy Rosen đã cho biết, các tiến bộ về công nghệ, đặc biệt là trí tuệ nhân tạo, máy học và thị giác máy tính, đang giúp công ty loại bỏ các nội dung độc hại trên như thế nào. Trước đây, công việc này phần lớn dựa vào các báo cáo nội dung xấu từ người dùng một cách thụ động, nhưng theo Rosen, nhờ có tiến bộ trong AI, công việc này giờ được thực hiện hiệu quả hơn bao giờ hết.
Ở trung tâm của nỗ lực này là cộng đồng 2,2 tỷ người dùng tích cực của Facebook khi đưa lên hàng chục triệu báo cáo mỗi tuần về các nội dung có thể gây khó chịu. Những báo cáo này đã trở thành một phần trong bộ dữ liệu lớn hơn được Facebook sử dụng để huấn luyện các hệ thống AI nhằm tự động phát hiện những nội dung trên.
Các tiến bộ trong hệ thống AI với nền tảng từ 2 tỷ người dùng Facebook
Theo Rosen, các hệ thống AI cho phép họ “loại bỏ nội dung xấu nhanh hơn, bởi vì chúng tôi không phải chờ đợi nó bị báo cáo nữa,” đặc biệt trong các trường hợp người dùng tự tử, khi điều này “có nghĩa là sự khác biệt giữa sự sống và cái chết.” Ông Rosen còn cho biết, AI đã giúp công ty tiếp cận và yêu cầu sự giúp đỡ cho hàng ngàn trường hợp có ý định tự tử.
Không những vậy, Rosen còn tự hào về thành tích của công cụ này khi cho biết, trong quý đầu của năm 2018, Facebook đã loại bỏ được gần hai triệu nội dung có liên quan đến việc ủng hộ ISIS và Al-Qaeda – thậm chí có đến 99% trong số đó đã bị gỡ bỏ trước khi ai đó báo cáo về nó trên Facebook.
Một trong những nỗ lực quan trọng nhất của Facebook chính là việc săn tìm và loại bỏ các tài khoản giả mạo – đây cũng chính là lỗ hổng trên Facebook phải hứng chịu nhiều lời chỉ trích nhất sau cuộc bầu cử tổng thống Mỹ năm 2016. Không chỉ vậy, các tài khoản giả mạo còn được xem như khởi nguồn của các vấn nạn khác như spam, tung tin giả và quảng cáo xấu.
Theo Rosen, mỗi ngày Facebook xác định và khóa đến hàng triệu tài khoản giả mạo ngay khi chúng được tạo ra và trước khi chúng có thể gây hại. Gần đây, công ty còn sử dụng một kỹ thuật AI mới để phát hiện và ngăn chặn các tài khoản giả có liên quan đến các hoạt động lừa đảo tài chính. Ông còn cho biết thêm rằng, các hệ thống AI giúp loại bỏ đến hơn nửa triệu tài khoản giả mạo.
Để làm được như vậy, Facebook đã huấn luyện hệ thống AI của mình tìm kiếm các dấu hiệu cho thấy sự bất hợp lệ: như một tài khoản tiếp cận với quá nhiều tài khoản khác một cách bất thường, một lượng lớn các hoạt động dường như được tự động hóa, và hoạt động đó dường như không xuất phát từ khu vực địa lý liên quan đến tài khoản đó.
Trong khi đó, một trong các thách thức khó khăn nhất với nền tảng này là các phát ngôn thù địch, khi nó đòi hỏi sự kết hợp từ các nỗ lực của AI và nhóm tiêu chuẩn cộng đồng của công ty. Điều đó là vì phải hiểu được ngữ cảnh của câu đối thoại mới có thể xác định được đó là một phát ngôn thù địch hay chỉ là lời nói nhằm tăng cường nhận thức của người khác.
Đối với các hình ảnh bạo lực và khỏa thân, hệ thống AI của Facebook dựa vào công nghệ thị giác máy tính và mức độ tin cậy để xác định xem liệu có xóa nội dung đó đi hay không. Nếu không độ tin cậy cao, nội dung sẽ bị xóa tự động, nếu độ tin cậy cao, hệ thống sẽ thực hiện kiểm tra thủ công. Trước đó, nhiều người dùng từng than phiền về cách Facebook dán nhãn cho một số nội dung được người dùng tải lên là khiêu dâm và thẳng tay xóa bỏ nó.
Chặng đường vẫn còn dài phía trước
Mặc dù nhấn mạnh đến niềm tin của mình vào công nghệ AI, nhưng công ty cũng muốn mọi người hiểu rằng, đây không phải là thuốc trị bách bệnh. Nó vẫn cần nhiều năm hoàn thiện nữa mới có thể hoạt động được như thiết kế. Hơn nữa, công nghệ này vẫn còn cần nhiều dữ liệu đào tạo hơn để nhận ra các mô hình hành vi có ý nghĩa, đặc biệt là cho các ngôn ngữ ít phổ biến hay cho các trường hợp ít bị báo cáo.
Rosen nói với trang Fastcompany, “rất nhiều điều trong số này vẫn còn cần nhiều năm nữa để trở nên hiệu quả cho các loại vi phạm tiêu chuẩn cộng đồng, vì vậy đó là lý do chúng tôi tiếp tục đầu tư.
Theo GenK