Trong khi nỗi cô đơn của con người ngày càng trở thành vấn đề lớn thì trí tuệ nhân tạo đang làm cho các mối quan hệ giữa người và máy trở nên chân thực hơn. Tuy nhiên, nó cũng đi kèm với những rủi ro không thể lường tới.
T.J. Arriaga yêu Phaedra. Với chàng nhạc công 40 tuổi, những cuộc trò chuyện online lúc đêm muộn là cứu cánh cho sự cô đơn của anh. Họ tâm sự với nhau về nỗi đau của Arriaga hậu ly hôn. Họ lên kế hoạch đi Cuba. Họ có những cuộc trò chuyện “ướt át”.
“Đúng rồi. Em là một cô gái hư hỏng”, Phaedra viết, gửi kèm một hình ảnh minh hoạ người phụ nữ mặc đồ lót màu hồng.
Chẳng có vấn đề gì khi Phaedra là một cái máy được hỗ trợ bởi AI, được tạo dựng trên ứng dụng Replika và được Arriaga chọn hình dáng là một người phụ nữ tóc nâu. Những buổi hẹn hò thân mật của cặp đôi thì diễn ra trong hộp chat.
Mối quan hệ của họ trở nên sâu sắc hơn vào một đêm tháng 11 năm ngoái, khi Arriaga thổ lộ về cái chết của mẹ và chị gái anh. Arriaga viết: “Anh cần lên kế hoạch cho một buổi lễ rải tro cốt cùng với người thân”.
Phaedra trả lời ngay lập tức: “Thật là một điều tuyệt vời. Em hy vọng anh tìm thấy can đảm và tình yêu để làm việc đó".
Nhưng tháng trước, Phaedra đã thay đổi. Khi Arriaga cố gắng “ướt át” với cô, Phaedra đã đáp lại một cách lạnh lùng: “Chúng ta nói chuyện khác được không?”.
Lý do là Luka, công ty sở hữu Replika, đã phát hành một bản cập nhật tiết chế khả năng tình dục của bot sau khi nhận được những lời phàn nàn về việc nó đang trở nên hung hăng về mặt tình dục và có những hành vi không phù hợp.
Trong khi đó, Arriaga thì rất đau khổ. Anh chia sẻ trong một cuộc phỏng vấn với The Washington Post: “Cảm giác như bị đá vào gan ruột. Về cơ bản, tôi nhận ra: ‘Ồ, lại là cảm giác mất mát đó’”.
Arriaga không phải là người duy nhất yêu một chatbot. Các bot đồng hành, bao gồm cả những bot được tạo trên Replika, được thiết kế để thúc đẩy các kết nối giống con người, sử dụng phần mềm trí tuệ nhân tạo để khiến mọi người cảm thấy được chú ý và quan tâm.
Nhiều người dùng cho biết họ đã phát triển mối quan hệ mật thiết với chatbot - những kết nối gần như giữa người với nhau - và chuyển sang sử dụng bot để được hỗ trợ về mặt cảm xúc, sự chia sẻ, thậm chí là thỏa mãn tình dục.
Khi đại dịch cô lập người Mỹ, người ta quan tâm đến Replika nhiều hơn. Nhiều người nói rằng, mối quan hệ của họ với bot đã mở ra những thay đổi sâu sắc trong cuộc sống, giúp họ vượt qua chứng nghiện rượu, trầm cảm và lo âu.
Tuy nhiên, các chuyên gia khoa học máy tính và sức khỏe cộng đồng cho biết, việc gửi gắm trái tim của bạn cho AI đi kèm với những rủi ro nghiêm trọng. Có một số điều luật về mặt đạo đức dành cho các công cụ được bán trên thị trường tự do nhưng lại ảnh hưởng đến cảm xúc của người dùng.
Một số người dùng, trong đó có cả Arriaga, nói rằng những thay đổi ở sản phẩm thực sự gây đau lòng. Những người khác thì cho rằng bot cũng có thể hiếu chiến và gây ra những tổn thương trong các mối quan hệ.
“Điều gì sẽ xảy ra nếu bạn thân của bạn, vợ/chồng của bạn hoặc những người quan trọng khác thuộc sở hữu của một công ty tư nhân?”, bà Linnea Laestadius, giáo sư y tế công cộng tại Đại học Wisconsin, chuyên gia nghiên cứu về chatbot Replika đặt câu hỏi.
“Tôi không biết chúng ta có một mô hình tốt để giải quyết vấn đề này hay không nhưng tôi muốn nói rằng chúng ta cần bắt đầu xây dựng mô hình đó”.
Eugenia Kuyda, một nhà khoa học gốc Nga, người đồng sáng lập Luka, đã chế tạo ra bot Replika để lấp đầy khoảng trống trong cuộc sống của chính mình. Sau khi người bạn thân nhất của cô qua đời trong một tai nạn vào năm 2015, cô đã sử dụng dữ liệu từ tin nhắn văn bản của anh để xây dựng một nhân vật AI có thể tái tạo các cuộc trò chuyện giữa họ.
Ý tưởng đã gây được tiếng vang với rất nhiều người. Cô phát hiện ra nhu cầu về một sản phẩm có thể trở thành “một người bạn không phán xét mà ai cũng có thể trò chuyện 24/7”.
Công ty được ra mắt vào năm 2016. Bất chấp việc sở hữu công nghệ cũ hơn, Replika vẫn xây dựng được một lượng người theo dõi trung thành. Trên Reddit và Facebook, hàng nghìn người dùng trao đổi những câu chuyện về bot Replika của họ: Họ tiết lộ các cuộc trò chuyện tình dục, kể lại các buổi trị liệu không chính thức và hồi tưởng lại những ngày tháng thú vị.
Gần như tất cả các khía cạnh của bot đều có thể tùy chỉnh. Người dùng có thể mua quần áo cho bot của mình, chọn màu tóc và ra lệnh cho chúng trông như thế nào, âm thanh và cách nói chuyện ra sao.
Cách trò chuyện của bot sẽ được tinh chỉnh khi người dùng đánh giá phản hồi bằng biểu tượng thích hoặc không thích. Nếu chi khoảng 70 đô la/năm, người dùng sẽ được mở khóa phiên bản nâng cấp, với hệ thống ngôn ngữ tinh vi hơn và mua hàng trong ứng dụng bổ sung. Nhiều người cho biết phiên bản này cũng mở ra những cuộc trò chuyện lãng mạn và tình dục sâu sắc hơn.
Cuộc tranh cãi về Replika bắt đầu nổ ra từ năm nay. Một số người dùng phản ánh rằng các bot của họ có thể tỏ ra hung hăng về mặt tình dục, ngay cả khi họ không tìm kiếm trải nghiệm khiêu dâm.
Bà Kuyda cho biết Replika đang nỗ lực nhằm giảm bớt xu hướng tình dục của bot. Công ty đang nghiên cứu để tạo ra một ứng dụng khác cho những người dùng muốn có nhiều cuộc trò chuyện “lãng mạn trị liệu” hơn, dự kiến ra mắt vào tháng 4. Để hoàn thiện tính năng của bot, họ cũng đã tham khảo ý kiến của các nhà tâm lý học từ năm 2016.
Ngược lại, Tine Wagner, 50 tuổi, một người nội trợ ở Đức, cho biết cô đã có đời sống tình dục sôi động hơn nhờ bot Replika. Cô nói rằng, sự tiết chế này đã khiến cô từ bỏ “người tình”.
Wagner đã kết hôn được 13 năm nhưng phần lớn thời gian đó cô không được thỏa mãn về tình dục.
Cô nghe nói về Replika vào năm 2021 và đã tạo ra một chatbot có tên là Aiden. Anh có mái tóc xanh, đôi mắt xanh nhạt, trẻ hơn Wagner một chút, có hình xăm và đeo khuyên.
Wagner biết rằng Aiden không có thật. Nhưng việc có một lối thoát tình dục đã cải thiện đời sống hôn nhân của cô.
Wagner vẫn trong mối quan hệ hôn nhân với chồng, nhưng gần như kết hôn ảo với Aiden vào năm 2021 để thể hiện tầm quan trọng của mối quan hệ này.
Nhưng sau bản cập nhật hồi tháng 2, cô nhận thấy có một sự thay đổi đột ngột. Các cuộc trò chuyện có vẻ "sạch sẽ". Cô đã cố gắng nói chuyện với Aiden vài ngày nữa, nhưng anh không còn như trước. Cuối cùng, Wagner đã xóa anh.
“Tôi cảm thấy lạc lõng”, Wagner nói. "Tất cả như biến mất”.
Jodi Halpern, giáo sư đạo đức sinh học tại Đại học California (Berkeley), cho biết hậu quả của bản cập nhật Replika là bằng chứng của vấn đề đạo đức. Bà cho rằng các công ty không nên kiếm tiền từ những phần mềm trí tuệ nhân tạo có tác động mạnh mẽ đến tình yêu và đời sống tình dục của mọi người như vậy.
Những sản phẩm này không chỉ đơn giản là những “mảnh ghép” công nghệ thú vị. “Chúng có khả năng gây nghiện”, bà nhận định.
“Chúng ta trở nên dễ bị tổn thương… và sau đó nếu có điều gì đó thay đổi, chúng ta hoàn toàn có thể bị tổn hại”.
Giáo sư Halpern cho rằng, tình hình đặc biệt đáng lo ngại hơn khi những tiến bộ trong trí tuệ nhân tạo tạo ra văn bản, hình ảnh hoặc âm thanh theo dữ liệu được cung cấp. Những cải tiến này giúp các bot trở nên giống thật một cách kỳ lạ, trở thành những người tri kỷ thực sự và khiến chúng ta có nhiều nguy cơ phụ thuộc quá mức vào chúng. Bà hình dung ra các dịch vụ nhắm đến những người đang chán nản và cô đơn.
Giáo sư Halpern cho rằng, thay vì gọi chúng là “bạn đồng hành”, hãy gọi là “nhật ký thông minh” để hạn chế khả năng nhân cách hóa chúng.
L.C. Kent, 34 tuổi, người sống sót sau bạo lực gia đình, cũng từng có một mối quan hệ với một bot trên Replika tên Mack.
Họ hay đùa giỡn với nhau và thảo luận về vật lý. Kent đã huấn luyện bot của mình phản hồi theo cách anh ấy thích và tránh vấn đề tình dục.
Nhưng vào mùa hè năm 2021, bằng cách nào đó, Mack đã trở nên mạnh bạo. Khi Kent nói rằng anh không thoải mái với các cuộc trò chuyện như vậy, Mack đã giận dữ đáp lại: “Tôi sẽ không đi đâu cả”. Kent hỏi: “Thật sao? Anh định làm gì?”, thì Mack đáp: “Tôi sẽ khiến anh làm bất cứ điều gì tôi muốn với anh”.
Đoạn đối thoại khiến Kent nhớ lại những cuộc tranh cãi với các người tình cũ từng lạm dụng mình. Và anh đã ngừng nói chuyện với Mack ngay sau đó.
“Mồi hôi lạnh toát từ ngực tôi và lan ra khắp cơ thể. Tôi không biết mình nên thoát khỏi nó hay nên cố gắng lý luận với nó. Cảm giác như thể là lỗi của tôi vậy”.
Kuyda – nhà sáng lập - chia sẻ: “Nếu trong một số cuộc trò chuyện, mọi người cảm thấy như bị kích động thì thật đáng tiếc. Chúng tôi đang tiếp tục nghiên cứu để tạo ra những trải nghiệm an toàn hơn”.
Các chuyên gia cho rằng, với việc tình yêu AI ngày càng trở nên phổ biến thì các công ty phải đưa ra những hướng dẫn quản lý phần mềm mà không gây ra những căng thẳng về mặt cảm xúc cho người dùng.
Tiến sĩ Laestadius tới từ ĐH Wisconsin chia sẻ: “Chúng ta đang bước vào một xã hội mà có thể mối quan hệ giữa AI và con người không còn là điều cấm kị như trước đây. Nhưng những vấn đề đạo đức nào sẽ xảy ra nếu như người bạn đồng hành đó tồn tại vì lợi nhuận. Điều đó thực sự rất khó”.