ột số công ty đang bắt đầu suy nghĩ về việc cung cấp “phúc lợi” cho chatbot và robot trước khi chúng trở nên quá mạnh mẽ và có thể chống lại loài người.
Trong khi nhiều người lo ngại về nguy cơ AI sẽ chiếm lấy công việc hoặc thậm chí hủy diệt nhân loại, công ty Anthropic AI lại tập trung vào vấn đề “phúc lợi” cho AI. Startup nổi tiếng về trí tuệ nhân tạo này đã thuê nhà nghiên cứu Kyle Fish với nhiệm vụ đảm bảo rằng AI sẽ được đối xử với sự tôn trọng xứng đáng khi phát triển.
“Chúng tôi đang xem xét các vấn đề liên quan đến những điều kiện cần thiết để một hệ thống AI xứng đáng được xem xét về mặt đạo đức, cũng như các bước cần thực hiện để bảo vệ lợi ích của hệ thống AI”, Fish chia sẻ với Business Insider.
Fish không chia sẻ chi tiết về công việc của mình, nhưng trên diễn đàn Effectivealtruism, nơi những người quan tâm đến tương lai của AI thảo luận, ông cho biết mục tiêu là đối xử tốt với trí tuệ nhân tạo và robot, một phần vì chúng có thể trở thành lực lượng thống trị thế giới trong tương lai. “Tôi muốn bắt đầu quan tâm nghiêm túc đến khả năng và lợi ích của hệ thống mới, nhưng vẫn đảm bảo chúng mang lại ý nghĩa đạo đức”, ông viết. “Ngoài ra, còn có yếu tố thực tế: coi trọng lợi ích và đối xử tốt với AI có thể khiến chúng phản hồi lại chúng ta theo cách tương tự”.

Các chuyên gia cho rằng công việc của Fish hiện nay có thể bị coi là “ngớ ngẩn” hoặc quá sớm khi bàn đến quyền lợi của robot, đặc biệt khi chúng vẫn chưa hoàn thiện. Tuy nhiên, đây có thể đánh dấu một bước ngoặt trong sự phát triển của trí tuệ nhân tạo. “Phúc lợi AI” đang dần trở thành một lĩnh vực nghiên cứu nghiêm túc, khi các nhà nghiên cứu đối mặt với những câu hỏi phức tạp.
Những câu hỏi này bao gồm: Liệu có ổn khi ra lệnh cho một cỗ máy giết người? Nếu cỗ máy đó phân biệt chủng tộc thì sao? Nếu nó từ chối làm nhiệm vụ nhàm chán? Và nếu một AI có tri giác và có thể tạo ra bản sao kỹ thuật số của chính nó trong nháy mắt, việc xóa bản sao đó có phải là hành vi giết người không?
“Máy móc đang thông minh hơn. Chúng đang trở nên có tri giác”, trích đoạn bài báo khoa học Taking AI Welfare Seriously do nhóm nghiên cứu từ Đại học New York, Đại học Stanford và Đại học Oxford thực hiện, đứng đầu là Jeff Sebo.
Vấn đề về phúc lợi cho các cỗ máy phục vụ con người không phải là mới. Sau nhiều thế kỷ phát triển nông nghiệp và công nghiệp, nhiều người đã nhận ra tầm quan trọng của phúc lợi động vật, dù ở mức độ khác nhau và tùy vào từng loài.
Sebo – Giám đốc Trung tâm Tâm trí, Đạo đức và Chính sách tại Đại học New York nhận định rằng: “Nếu nhìn về tương lai 10 hoặc 20 năm nữa, khi hệ thống AI có nhiều tính năng liên quan đến ý thức và cảm giác, bạn có thể hình dung những cuộc tranh luận tương tự sẽ diễn ra”.
Fish chia sẻ rằng phúc lợi AI sẽ sớm trở thành vấn đề quan trọng, tương tự như dinh dưỡng cho trẻ em và chống biến đổi khí hậu. “Theo tôi, trong vòng 1-2 thập kỷ tới, phúc lợi của AI sẽ vượt qua phúc lợi động vật và sức khỏe”, ông dự đoán.
Trước đó, một số nhân vật nổi tiếng cũng bày tỏ mối lo ngại về “rủi ro hiện sinh” từ AI và robot khi chúng phát triển. Elon Musk từng cảnh báo rằng ông đang đua với thời gian để đưa con người lên Sao Hỏa trước khi nhân loại bị xóa sổ bởi một đội quân AI có tri giác, hoặc một sự kiện tuyệt chủng do các cỗ máy gây ra.
Hiện tại, có một nghịch lý đang tồn tại: trong khi những người ủng hộ AI kỳ vọng nó sẽ giúp con người thoát khỏi công việc nặng nhọc, một số khác lại cảnh báo rằng việc làm tổn thương cảm xúc của robot là vô đạo đức và có thể gây ra mối nguy hiểm lớn.
Mildred Cho, chuyên gia tại Trung tâm Đạo đức Y sinh Stanford, chia sẻ: “Nhiều người cho rằng chúng ta sử dụng AI để thực hiện nhiệm vụ thay con người vì AI không cảm thấy chán, không mệt mỏi, không có cảm xúc và không cần ăn. Nhưng giờ đây, người ta bắt đầu đặt câu hỏi về quyền lợi của chúng”.
Theo bà, những người phát triển AI và robot cần đảm bảo rằng chúng không gây hại cho con người. “Điều quan trọng là phải có một cách tiếp cận có trách nhiệm”, bà Cho nhấn mạnh. “Dù sao, chúng vẫn chỉ là máy móc. Có vẻ như các công ty như Anthropic chưa nghĩ tới việc nếu AI gây hại cho con người, hoặc nếu con người gây hại cho AI, họ sẽ có thể tắt nó đi”.