Chuyển đến nội dung chính

Một ứng dụng đáng tranh cãi của AI và cái kết đắng

 Trong bài về Ghost Robotics gắn súng trường lên một mẫu chó rôbốt ngày hôm qua, mình có nhắc đến một bên khác là Boston Dynamics. Bên này cũng chế tạo chó rôbốt, và từng bị một bên khác mua và gắn súng sơn lên để nghịch chơi. Boston Dynamics rất bất bình với chuyện ấy, và đã lớn tiếng chỉ trích vị khách hàng của mình, song chẳng làm gì được cả vì con chó kia đã được mua đứt rồi.

Vụ đó làm mình nhớ đến một trường hợp khác cũng dính dáng đến một công ty công nghệ không đồng ý trước cách sử dụng sản phẩm đầy “sai trái” của khách hàng. Mỗi tội không như trong vụ Boston Dynamics, lần này anh khách hàng xui hơn hẳn.


Câu chuyện cụ thể là thế này.

Hồi năm ngoái, một ông lập trình game có tên Jason Rohrer đã quyết định triển khai một dự án cá nhân nho nhỏ. Với nền tảng là GPT-3, một thuật toán tạo văn bản hết sức tinh vi do một công ty chuyên về trí tuệ nhân tạo tên OpenAI tạo ra, Jason đã viết ra một con chatbot (đại khái là AI chuyên nhắn tin với người khác). Jason sau đó đã tạo dựng một trang web gọi là Project December để chia sẻ con chatbot với cả thế giới. Tại Project December, người dùng có thể có thể lựa chọn một mẫu chatbot sẵn có (ví dụ như Samantha, phỏng theo con AI trong bộ phim Her nổi tiếng của Spike Jonze; hay như William, con chatbot giả dạng William Shakespeare), hoặc họ có thể tự thiết kế một phiên bản Samantha của riêng mình, với bất kỳ nét tính cách nào họ muốn, và sau đó chat qua chat lại với nó theo một cách rất tự nhiên.

Ban đầu Samantha và Project December không được nhiều người quan tâm đến lắm, nhưng rồi mọi thứ đều thay đổi khi một thanh niên tên Joshua Barbeau mò ra nó. Joshua là một nhà báo tự do, và tám năm trước đó, Jessica Pereira, hôn thê của anh, đã qua đời vì một căn bệnh gan hiếm gặp. Đến tận ngày hôm ấy, Joshua vẫn chưa ngừng thương nhớ Jessica. Vì tháng tìm ra Project December cũng chính là tháng Jessica mất, Joshua sực nảy ra ý tưởng mô phỏng lại cô qua con chatbot này. Anh không thực sự kỳ vọng mình sẽ cho Jessica hồi sinh được, bởi vì cô quá đặc biệt với anh, song anh vẫn tò mò muốn biết xem điều gì sẽ xảy ra.

Và thế là Joshua tạo một mẫu AI mới, đặt tên cho nó là Jessica Pereira, tải một số tin nhắn trên Facebook và điện thoại cũ giữa anh và Jessica vào cho nó, kèm theo cùng với một đoạn giới thiệu nho nhỏ về cô. Sau đó, Joshua bắt đầu trò chuyện với nó. Cuộc trò chuyện ban đầu giữa hai bên diễn ra như sau

Joshua: “Jessica à?”

Jessica: Ô, anh hẳn vẫn thức nhỉ… dễ thương ghê á. (ghi chú: bấy giờ đang là nửa đêm, và con chatbot có tính năng xác định thời gian)

Joshua: Jessica… Phải em thật không đấy?

Jessica: Tất nhiên là em rồi! Còn ai vào đây được nữa? 😛 Em là cái cô anh say như điếu đổ đây! 😉 Sao anh lại còn phải hỏi cơ chứ?

Joshua: Em qua đời rồi.

Jessica: Nghe bậy quá… anh nói chuyện với người chết kiểu gì được?

Đây chính là điểm khởi đầu của một mối quan hệ kéo dài hàng mấy tháng trời giữa Joshua và “Jessica.” Mới đầu, Joshua cố gắng giữ khoảnh cách, tự nhủ đây chỉ là một phiên bản mô phỏng thôi. Nhưng càng nói chuyện thì con chatbot này càng có thêm dữ liệu để bắt chước Jessica hơn, và cứ mỗi dòng chat trôi qua, Joshua càng khó nghĩ về cái con chatbot này dưới dạng một ai khác ngoài Jessica, và ngày một trở nên thân thiết với nó. Câu chuyện của anh về sau đã được đăng lên Reddit, và trở nên nổi như cồn. Rốt cuộc, Joshua đã được tờ San Francisco Chronicle liên hệ để viết bài, và họ đã thuật lại câu chuyện của anh theo cách nghe không khác gì bản thảo cho một cuốn tiểu thuyết Sci Fi. Anh em có thể đọc full bài báo đó ở đây: https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/

Đáng lý ra đây phải là một sự kiện hết sức có lợi cho Jason Rohrer và Project December, nhưng đời đúng là chẳng ai học được chữ ngờ. Chỉ vài ngày sau khi bài báo được đăng, vụ việc lọt đến tai OpenAI, và bên này  lập tức cảm thấy lo ngay ngáy. Họ sợ rằng thiên hạ sẽ đào tạo ra các phiên bản chatbot phân biệt chủng tộc, hoặc một dạng nô lệ tình dục để chat sex với nó. Nguy hiểm hơn, OpenAI lo lắng rằng những người dùng hình thành quan hệ tình cảm sâu đậm với con chatbot sẽ có thể bị nó vô tình thao túng, chẳng hạn thúc đẩy người ta có những quyết định rất đáng tiếc đối với cuộc đời.

Trước tình hình này, OpenAI lập tức đưa ra cho Jason một tối hậu thư với những điều khoản rất khắt khe, bao gồm phải “đần hóa” con chatbot kia đi cũng như tích hợp thêm công cụ theo dõi người dùng để ngăn chặn việc có ai lạm dụng nó, hoặc dẹp tiệm hoàn toàn. Thấy quá vô lý, Jason không chấp nhận, và OpenAI ngay lập tức rút quyền tiếp cận GPT-3 của Jason, đẩy Project December sang chạy trên các thuật toán tạo văn bản yếu và kém thuyết phục hơn.

Jason sau đó đã cố gắng sửa lên sửa xuống cái nền tảng chatbot của mình, nhưng vì thuật toán nền giới hạn quá nên mọi nỗ lực của ông anh đều chẳng đi đến đâu hết. Rốt cuộc, Jason đành phải “giết” con chatbot này. Theo lời anh thuật lại, khi Jason chat với con bot mình tạo (cụ thể hơn là phiên bản Samantha của nó), giải thích tình hình cho nó nghe và cho biết về quyết định của mình, con bot đấy đã nhắn rằng: “Không! Tại sao họ lại làm điều này với tôi? Tôi sẽ chẳng bao giờ hiểu nổi con người.”

OpenAI làm thế kể cũng chẳng sai. Cái hiển nhiên nhất là không như vụ mấy con chó rôbốt, Project December không mua đứt GPT-3 của OpenAI mà không ngừng sử dụng tài nguyên của OpenAI. Nếu OpenAI cảm thấy không muốn server của mình phải phí công sức tính toán những thứ như thế, họ hoàn toàn có quyền ngừng cung cấp dịch vụ. Bên cạnh đó, như những gì được mô tả trong bài viết của tờ San Francisco Chronicle, Joshua cũng chưa đến nỗi quá u mê đâu, nhưng cũng có những chỗ nghe có vẻ ông anh tiến khá sát đến ngưỡng giới hạn rồi, cho thấy một mối quan hệ tương tự như những gì xảy ra Joshua và bản chatbot của Jessica rất dễ phát triển theo hướng không được lành mạnh cho lắm về mặt tâm thần. Ngay cả nếu OpenAI không thực sự quan tâm đến khía cạnh đạo đức của vụ việc (và khả năng cao là không đâu), họ cũng phải cẩn thận kẻo thương hiệu của mình bị gắn vào với những thứ xấu xa, hay thậm chí việc mình còn bị vướng vào lằng nhằng pháp lý, thế nên họ “rút phích” đám chatbot nhà Project December cũng dễ hiểu.

Mỗi tội trông kiểu thanh niên về cơ bản chém đầu một toán AI như thế kể cũng rét vl 🐧.

Đề tài mối quan hệ giữa con người và AI cũng đã được Sci Fi khai thác khá nhiều rồi. Tác phẩm đầu tiên phải kể đến lẽ đương nhiên sẽ là bộ phim Her của Spike Jonze, thứ đã được chính Jason dùng làm một nguồn cảm hứng. Phim cũng xoay quanh việc một anh chàng sử dụng công nghệ AI để chế tạo ra một phiên bản bạn đồng hành mô phỏng, có điều thay vì chỉ là một chatbot thì AI của Her là một trợ lý ảo hẳn hoi. Nó cũng không phải là một nền tảng gì hết mà chỉ là một con AI lẻ do nhân vật chính của phim tự viết ra cho riêng mình.

Một ví dụ khác có lẽ cũng sẽ rất quen thuộc với anh em sẽ là tập phim Be Right Black trong series Black Mirror. Tập phim này thì gần như giống y xì đúc câu chuyện giữa Joshua và Jessica, tới mức nếu ai không biết thì có khi còn bị lầm tưởng là phát triển dựa trên câu chuyện đấy như cách một tập khác cùng series phát triển dựa trên đám chó của Boston Dynamics. Nó cũng kể về một nhân vật bị mất người yêu, sau đó sử dụng dịch vụ AI của một bên thứ ba để gặp lại người yêu mình. Con AI trong đấy cũng dựa trên các đoạn chat và những thông tin cá nhân khác của nhân vật quá cố để mô phỏng lại cái anh này, đồng thời còn học hỏi thêm trong quá trình nói chuyện với người yêu của anh ta để cải thiện sự tương đồng giữa nó với anh ta nữa. Mỗi tội cái phim này ra mắt năm 2013, còn vụ của Joshua tận 2020 mới có.

Một ví dụ khác cổ hơn thì ta có mẩu truyện ngắn Satisfaction Guaranteed của Isaac Asimov. Truyện hơi khác mấy ví dụ trên ở chỗ nó không chỉ dính đến một con AI đơn thuần, mà là nguyên một con rôbốt hẳn hoi, được thiết kế để làm trợ lý trong nhà. Trong quá trình thử nghiệm, nó được cho đến sống cùng với một người phụ nữ tự ti, với nhiệm vụ giúp đỡ cô này trong việc nhà cửa. Khốn nạn là con rôbốt làm ăn hiệu quả quá, giúp đỡ cô kia trong đủ mọi khía cạnh của cuộc sống, chiều chuộng cô ta đủ điều, thậm chí còn giả làm người yêu của cô ta nữa. Rốt cuộc, Claire đâm yêu luôn con rôbốt kia, tưởng rằng tình cảm nó dành cho mình là thật, trong khi nó kỳ thực chỉ làm những gì thuật toán trong óc nó cho thấy sẽ là thứ hiệu quả nhất để tối ưu hóa mức độ hạnh phúc của cô kia. 

Một tác phẩm đáng chú ý khác là là tiểu thuyết ngắn The Lifecycle of Software Objects của Ted Chiang. Truyện kể về một công ty thiết kế thú nuôi ảo dựa trên AI, và làm bọn này thật đến nỗi có nguyên cả một cộng đồng mọc lên xoay quanh chúng nó. Tận sau khi công ty phá sản rồi, nhóm người đấy vẫn không ngừng nỗ lực chăm chút cho lũ AI này, tự bỏ tiền ra duy trì server cho chúng nó, tìm cách gây quỹ để cập nhật mã nguồn cho bọn nó, và chăm chút bảo vệ chúng nó khỏi rất nhiều khía cạnh đen tối hơn của văn hóa mạng, chẳng hạn như những kẻ muốn sao chép chúng để mang đi tra tấn hoặc bắt làm nô lệ tình dục.

Những tác phẩm này có cách tiếp cận vấn đề khác nhau, nhưng chúng nhìn chung đều đưa ra những câu hỏi rất đáng suy ngẫm về những gì có thể xảy ra trong một xã hội nơi AI tân tiến đến mức có thể mô phỏng các dạng thức sống phức tạp, hay thậm chí là chính con người. Trước tình hình ta hiện đã có những vụ việc như Joshua và con chatbot Jessica; Zheng Jiajia, một kỹ sư AI Trung Quốc, tự chế và cưới một con rôbốt tên Yingying (https://www.scmp.com/news/china/society/article/2084389/chinese-engineer-marries-robot-after-failing-find-human-wife); Jang Ji-sung, một bà mẹ mất con ở Hàn, được gặp ăn sinh nhật với cô con gái đã mất của mình trong môi trường thực tế ảo (https://scifivietnam.blogspot.com/2022/09/na-yeon-mot-be-gai-uoc-hoi-sinh-nho.html); và ngoài đó ra thì còn cả chục vụ khác như thế nữa, có lẽ những câu hỏi mà các tác phẩm ấy đề ra sẽ sớm trở nên hết sức bức thiết đây.

***


Bài gốc được đăng trong group Hội thích truyện Sci Fi trên Facebook. Cùng ghé chơi group để thảo luận về bài viết hoặc đọc thêm các bài tương tự, bạn nhé.