Blog Đông Tác

Nguyễn Chí Công, CFLS

Trang nhà > Xã hội > Pháp luật > ChatGPT bị kiện

Marvin G.

ChatGPT bị kiện

Thứ Ba 20, Tháng Sáu 2023, bởi From FB

Anh Mark Walters, người dẫn chương trình phát thanh của bang Georgia (ảnh trên) đang tức giận vì ChatGPT đã trả lời một phóng viên rằng anh ăn cắp tiền từ tổ chức The Second Amendment Foundation (Tu chính án thứ hai) và điều đó không đúng sự thật.

Mark Walters không chỉ bực bội mà còn kiện OpenAI, công ty sở hữu ChatGPT. Đây có lẽ là lần đầu tiên xảy ra một vụ kiện như thế. Dù khó chứng minh trước tòa rằng một phần mềm AI thực sự có thể gây tổn hại đến uy tín cá nhân của người nào đó, nhưng vụ kiện vẫn có thể quan trọng vì nó tạo ra tiền lệ cho các vấn đề tương tự trong tương lai.

Luật sư của Walters nói rằng chatbot của OpenAI đã lan truyền thông tin sai lệch về Walters khi một nhà báo yêu cầu nó tóm tắt một vụ kiện pháp lý liên quan đến Tổng chưởng lý và Tổ chức Tu chính án thứ hai. ChatGPT đã nói rằng Walters là một phần của vụ án và là giám đốc điều hành của tổ chức đó. Trên thực tế, Walters không liên quan gì đến tổ chức hay vụ án kia.

Mặc dù nhà báo không công bố thông tin sai sự thật nhưng anh ta đã kiểm tra với các luật sư liên quan đến vụ việc. Bên đi kiện lập luận rằng các công ty như OpenAI phải chịu trách nhiệm về những sai lầm mà chatbot AI của họ mắc phải, đặc biệt nếu chúng có khả năng gây hại cho con người.

Câu hỏi bây giờ là liệu tòa án có đồng ý rằng thông tin bịa đặt từ các chatbot AI như ChatGPT có thể bị coi là phỉ báng (tuyên bố sai sự thật gây tổn hại đến danh tiếng của ai đó) hay không. Một giáo sư luật tin rằng điều đó là có thể bởi vì tuy OpenAI thừa nhận rằng AI của họ có thể phạm sai lầm, nhưng công ty đã không tiếp thị nó như một trò đùa hay hư cấu.

Vụ kiện này có thể có một số tác động chính:

  • Trách nhiệm pháp lý và quy định của AI: Nếu tòa án buộc OpenAI phải chịu trách nhiệm về những tuyên bố sai sự thật do ChatGPT tạo ra, thì điều đó có thể tạo tiền lệ rằng các nhà phát triển AI phải chịu trách nhiệm pháp lý về những gì hệ thống của họ tạo ra. Điều này có thể dẫn đến việc tăng cường quy định trong lĩnh vực AI, buộc các nhà phát triển phải thận trọng và kỹ lưỡng hơn khi tạo và phát hành hệ thống AI của họ.
  • Hiểu biết về những hạn chế của AI: Trường hợp này nêu bật những hạn chế của AI, đặc biệt là trong bối cảnh tạo và phân tích thông tin. Nó có thể giúp công chúng hiểu rõ hơn rằng các công cụ AI, mặc dù tiên tiến, nhưng không phải là không thể sai lầm và có thể tạo ra thông tin không chính xác hoặc thậm chí có hại. Điều này có thể ảnh hưởng đến niềm tin vào các hệ thống AI và việc áp dụng chúng.
  • Điều chỉnh hệ thống AI: Sau vụ kiện này, các nhà phát triển AI có thể cảm thấy cần phải cải thiện các biện pháp bảo vệ và độ chính xác của hệ thống AI của họ để giảm thiểu khả năng tạo ra các tuyên bố sai hoặc gây tổn hại. Điều này có thể thúc đẩy sự đổi mới và tiến bộ trong công nghệ AI, bao gồm cả việc triển khai các cơ chế xác thực dữ liệu hoặc kiểm tra thực tế mạnh mẽ hơn.
  • Cân nhắc về đạo đức trong AI: Vụ việc cũng nêu bật trách nhiệm đạo đức của các nhà phát triển AI và các tổ chức sử dụng AI. Nếu các nhà phát triển và công ty có thể chịu trách nhiệm về kết quả đầu ra của AI, thì điều đó có thể dẫn đến các hoạt động phát triển và triển khai AI chu đáo và có đạo đức hơn.
  • Tình trạng pháp lý của AI: Cuối cùng, trường hợp này có thể góp phần vào các cuộc thảo luận và tranh luận đang diễn ra về tình trạng pháp lý của AI. Nếu một AI có thể phải chịu trách nhiệm về tội phỉ báng, điều này có thể dẫn đến việc đánh giá lại vị thế pháp lý của AI, thậm chí có khả năng dẫn đến việc AI được công nhận là một thực thể pháp lý riêng biệt trong một số trường hợp nhất định.

10/6/2023