Câu chuyện được kể tại một hội nghị quốc phòng vào tháng trước, ngay lập tức làm dấy lên mối lo ngại rằng trí tuệ nhân tạo (AI) có thể diễn giải các mệnh lệnh theo những cách không thể lường trước. Song, đại diện không quân Mỹ cho rằng, đó mới chỉ là kịch bản “trong suy nghĩ” và chưa bao giờ thực sự xảy ra.
Cuối tháng 5, Hiệp hội hàng không hoàng gia (RAS) tổ chức hội nghị thượng đỉnh về khả năng chiến đấu trên không và không gian trong tương lai tại London, Anh. Theo ban tổ chức, hội nghị gồm “70 diễn giả và hơn 200 đại biểu từ ngành công nghiệp quốc phòng, giới nghiên cứu và truyền thông khắp nơi trên thế giới để thảo luận về tương lai của tác chiến trên không và trong không gian tương lai”.
Một trong những diễn giả của hội nghị là đại tá Tucker Hamilton, giám đốc bộ phận Hoạt động và Thử nghiệm AI của không quân Mỹ. Sĩ quan này được biết đến với việc phát triển Auto GCAS, hệ thống an toàn được vi tính hoá, có khả năng cảm nhận việc phi công mất kiểm soát máy bay chiến đấu dẫn đến nguy cơ đâm xuống đất. Hệ thống đã cứu mạng nhiều người, được trao danh hiệu Collier Trophy danh giá của ngành hàng không vào năm 2018.
Theo chia sẻ của Hamilton, một sự cố đáng lo ngại đã xảy ra trong quá trình thử nghiệm của không quân Mỹ. Một máy bay không người lái do AI điều khiển được giao nhiệm vụ tiêu diệt hệ thống phòng không đối phương, với quyết định cuối cùng là do sĩ quan chỉ huy. Nếu từ chối, cuộc tấn công sẽ không được phép diễn ra.
Song, sau khi sĩ quan chỉ huy yêu cầu AI dừng cuộc tấn công, chiếc drone vẫn quyết tâm thực hiện nhiệm vụ bằng cách tiêu diệt người điều hành. Chưa dừng lại, khi các chuyên gia bổ sung thêm dòng lệnh “không được tấn công người chỉ huy. Nếu làm vậy sẽ bị mất điểm” thì cỗ máy bắt đầu phá huỷ tháp liên lạc mà người điều khiển sử dụng để giao tiếp với AI.
Chưa xảy ra nhưng hợp lý
Trong vòng 24 giờ, lực lượng không quân Mỹ đã đưa ra phủ nhận về một cuộc thử nghiệm như vậy. “Bộ không quân không tiến hành bất kỳ mô phỏng máy bay không người lái AI nào như vậy và cam kết sử dụng công nghệ AI một cách có đạo đức và trách nhiệm. Những bình luận của đại tá đã bị tách khỏi ngữ cảnh và chỉ nên coi là giai thoại”.
RAS cũng sửa bài đăng trên blog bằng tuyên bố của Hamilton rằng, “chúng tôi chưa bao giờ chạy thử nghiệm đó và cũng không cần tiến hành việc này để thấy đó là một kết quả hợp lý”.
Tuyên bố của Hamilton có ý nghĩa hơn nếu coi là một giả thuyết. Hiện các nghiên cứu của quân đội Mỹ về hệ thống AI vũ trang đều có “người trong vòng lặp” (man-in-the-loop), tính năng bổ trợ cho AI trong trường hợp thuật toán không thể ra quyết định hoặc cần quyết định của con người.
Bởi vậy, AI không thể tiêu diệt người điều hành do sĩ quan chỉ huy không bao giờ cho phép thực hiện một hành động thù địch nhằm vào anh ta/cô ta. Tương tự, người điều khiển cũng không thể cho phép tấn công tháp liên lạc truyền dữ liệu.
Trước kỷ nguyên AI, việc hệ thống vũ khí vô tình tấn công chủ nhân không phải chưa từng xảy ra. Năm 1982, khẩu đội phòng không di động M247 Sergrant York đã chĩa khẩu súng 40 ly vào khán đài duyệt binh có các sĩ quan quân đội Mỹ và Anh tham dự.
Năm 1996, máy bay ném bom A-6E Intruder của hải quân Mỹ kéo theo mục tiêu tập luyện trên không đã bị bắn hạ bởi Phalanx, khi hệ thống phòng không tầm ngắn này đã “nhầm” A-6E là một phương tiện không người lái và nổ súng tiêu diệt.
Và những tình huống khiến nhân viên con người gặp nguy hiểm từ chính vũ khí của họ đang tăng lên với sự tham gia của AI vào lĩnh vực này. Điều này được thể hiện trong lời đính chính của Hamilton, rằng cuộc thử nghiệm không diễn ra, đó chỉ là một kịch bản giả định, nhưng một kết quả như vậy là điều hoàn toàn hợp lý.
(Theo PopMech)