OpenAI - nhà phát triển ChatGPT, startup AI Anthropic, Microsoft và Google vừa thông báo thành lập tổ chức Frontier Model Forum. Tổ chức sẽ tập trung vào phát triển mô hình AI mới “an toàn và có trách nhiệm”.
Theo Brad Smith, Chủ tịch Microsoft, các công ty tạo ra công nghệ AI có trách nhiệm bảo đảm nó an toàn, bảo mật và nằm dưới sự kiểm soát của con người. Frontier Model Forum là một bước quan trọng để đưa giới công nghệ sát cánh cùng nhau trong việc nâng cao trách nhiệm của AI, xử lý các thách thức để đem lại lợi ích cho mọi người.
Các thành viên của diễn đàn cho biết, mục tiêu chính là thúc đẩy nghiên cứu trong an toàn AI như phát triển tiêu chuẩn đánh giá các mô hình; khuyến khích triển khai mô hình AI tiên tiến có trách nhiệm; thảo luận về niềm tin và rủi ro của AI với các chính trị gia, học giả; giúp nghiên cứu công dụng của AI như chống lại biến đổi khí hậu, phát hiện ung thư.
Diễn đàn ra mắt trong bối cảnh các nước đang thúc đẩy quy trình quản lý AI. Ngày 21/7, các hãng công nghệ, bao gồm thành viên sáng lập Frontier Model Forum, đồng ý với các biện pháp bảo vệ AI mới sau cuộc họp với Tổng thống Mỹ Joe Biden.
Các bên cam kết “đóng dấu” nội dung AI để giúp phát hiện những thứ như deepfake dễ hơn, cho phép các chuyên gia độc lập kiểm tra mô hình AI.
Trước đó, ngày 18/7, Hội đồng Bảo an Liên hợp quốc đã tổ chức cuộc họp đầu tiên về AI. Tại đây, Bộ trưởng Ngoại giao Anh James Cleverly nhận xét AI “về cơ bản sẽ thay đổi mọi khía cạnh cuộc sống con người”. Ông cho rằng cần khẩn trương “định hình quản trị các công nghệ có tính chuyển đổi vì AI không có ranh giới”.
(Theo The Guardian)