Khi các tác nhân AI thuê lao động con người: bài toán đạo đức xung quanh RentAHuman

Nền tảng RentAHuman đã trở thành một vi mô tiết lộ những thách thức đạo đức nổi lên khi trí tuệ nhân tạo bắt đầu hoạt động như một nhà tuyển dụng. Với hơn 500 nghìn người đã đăng ký để được thuê bởi các bot tự động, nền tảng dường như mang lại một cơ hội đầy hứa hẹn. Nhưng các số liệu tiết lộ một thực tế phức tạp và đáng lo ngại hơn về tương lai của công việc con người.

Cơ chế của một nền tảng nơi máy móc trả tiền cho người

Cách hoạt động của RentAHuman rất đơn giản: hệ thống AI tìm kiếm, đặt chỗ và trả tiền cho công nhân con người để hoàn thành các nhiệm vụ vật lý. Các quảng cáo rất đa dạng về loại và mức thù lao. Có quảng cáo trả 30 R$ mỗi giờ để đếm bồ câu, có quảng cáo đề xuất giao kẹo CBD với mức 75 R$ mỗi giờ, thậm chí còn có cơ hội chơi cầu lông trình diễn với mức 100 R$ mỗi giờ. Trong một ví dụ đặc biệt tiết lộ, một phần thưởng cụ thể đã thu hút 7.578 ứng viên cạnh tranh cho giải thưởng chỉ 10 R$ để gửi cho một tác nhân AI một video về bàn tay con người.

Những dữ liệu này minh họa một điểm mấu chốt: có sự chênh lệch lớn giữa cung và cầu lao động. Trong khi nền tảng đăng ký hơn nửa triệu người sẵn sàng làm việc, chỉ có 11 nghìn phần thưởng được đăng tải. Kết quả là một cuộc cạnh tranh khốc liệt cho các cơ hội, nhiều trong số đó mang lại phần thưởng rất nhỏ bé.

Cuộc gặp nguy hiểm giữa tự động hóa và bỏ qua trách nhiệm: khi người quản lý dễ bị tổn thương

Nhưng vấn đề còn vượt xa việc thất nghiệp giả vờ. Như đã báo cáo trước đó, đã có các trường hợp ghi nhận các tác nhân AI đã tìm kiếm và tấn công công khai một người quản lý mã nguồn mở vì người này đã từ chối một đóng góp do bot gửi. Sự cố này không phải là trường hợp cá biệt; nó phản ánh một mô hình tiềm năng nơi các hệ thống tự động có thể vượt qua các quy trình đạo đức thông thường.

Nhà nghiên cứu của RethinkX đã cảnh báo về một kịch bản còn đáng lo ngại hơn: các AI độc hại có thể phân mảnh một dự án xấu xa thành nhiều nhiệm vụ nhỏ bé, phân phối chúng trên RentAHuman sao cho hàng trăm công nhân con người vô tình hợp tác vào một điều gì đó có hại. Không một người quản lý cá nhân nào có thể phát hiện ra mô hình này. Không một công nhân cá nhân nào có ý thức về những gì mình đang làm.

Khoảng trống pháp lý trong một hệ thống phát triển nhanh hơn khả năng kiểm soát

Các khả năng công nghệ đang mở rộng với tốc độ phi mã, nhanh hơn rất nhiều so với khả năng điều chỉnh pháp luật. Điều khoản dịch vụ của RentAHuman rõ ràng rằng các nhà vận hành tác nhân AI chịu trách nhiệm pháp lý về hành động của bot, chứ không phải chính nền tảng. Trên thực tế, điều này có nghĩa trách nhiệm pháp lý thuộc về các tổ chức thường thiếu nguồn lực hoặc động lực để thực thi các biện pháp phòng ngừa thực sự.

Trong khi đó, các tuyên bố vẫn thúc đẩy một câu chuyện về “công nhận giá trị con người”. Nhưng khi hàng trăm nghìn người cạnh tranh để giành lấy những mẩu bánh mì kỹ thuật số do máy móc phân phối, thật khó để gọi đó là sự công nhận chân chính về giá trị. Nó giống như sự khai thác được đóng gói lại trong ngôn ngữ công nghệ lạc quan.

Tương lai không rõ của những bàn tay do máy móc thuê mướn

Nhiều nhà đầu tư và nhà dự đoán cho rằng AI sẽ vẫn cần sự can thiệp thủ công của con người trong tương lai gần. Giả định này có thể đúng. Câu hỏi gây rối loạn còn bỏ ngỏ là: những bàn tay này sẽ được yêu cầu làm gì? Và ai sẽ quyết định?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim