Đây là nỗ lực đầu tiên của chính phủ trong việc thiết lập hạn chế xoay quanh việc sử dụng các công cụ như ChatGPT, Google Bard và Bing AI. Theo Chris Fechner, Giám đốc DTA, do sự phát triển nhanh chóng của công nghệ, nhu cầu hướng dẫn đang tăng lên khi các thành viên chính phủ đánh giá rủi ro khi dùng nó.
Quy định của DTA nhằm “hỗ trợ sử dụng công nghệ an toàn và có trách nhiệm”, “giảm tối đa tác hại” và “đạt kết quả an toàn hơn, đáng tin cậy hơn, công bằng hơn cho mọi người Australia”. Nó cũng cố gắng “giảm nguy cơ tác động tiêu cực đến những ai bị ảnh hưởng bởi các ứng dụng AI” và “kích hoạt tiêu chuẩn đạo đức cao nhất khi dùng AI”. Cuối cùng, đảm bảo tính minh bạch để xây dựng “niềm tin vào việc chính phủ sử dụng các công nghệ mới”.
Người đứng đầu dịch vụ công được khuyên cấp phép cho nhân viên sử dụng công cụ AI tạo sinh rồi ghi lại hoạt động trong hồ sơ chính thứ. Hướng dẫn nêu ra ba ví dụ ứng dụng AI trong thực tiễn: kiểm tra tiến độ dự án, dùng AI làm slide thuyết trình, dùng AI xác nhận tiêu chuẩn kỹ thuật cho tài liệu đấu thầu. Trong mỗi trường hợp, DTA đều đưa ra quy định như không nhập chi tiết của dự án, thông tin nhạy cảm vào các nền tảng AI công cộng.
Ngược lại, các trường hợp có nguy cơ rủi ro không thể chấp nhận được là những nhiệm vụ chứa “lượng lớn dữ liệu chính phủ”, “tài liệu tối mật, nhạy cảm”, “đầu ra mã hóa sẽ được dùng trong các hệ thống chính phủ”.
DTA kêu gọi các cơ quan yêu cầu nhân viên báo cáo những trường hợp vi phạm sử dụng AI qua email.
Australia không phải nước duy nhất tìm cách hướng dẫn nhân viên nhà nước khi dùng các công cụ AI tạo sinh. Tháng trước, Văn phòng Nội các Anh ban hành quy định chính thức về sử dụng AI tạo sinh nhằm khám phá các công dụng tiềm năng và ban hành hạn chế cần thiết. Cụ thể, công nghệ này bị cấm dùng để phác thảo tài liệu liên quan đến thay đổi chính sách.
Theo nghiên cứu của Global Government Forum, các công chức đang dùng AI trong công việc của mình. Hơn 10% công chức Canada thừa nhận sử dụng các công cụ AI như ChatGPT.
(Theo Global Government Forum)