Vatican tổ chức hội thảo về trí tuệ nhân tạo và đạo đức
Vatican tổ chức hội thảo về trí tuệ nhân tạo và đạo đức
“Nhiều phương tiện dồi dào nhưng mục đích lại rối rắm.” Câu nói này, được cho là của Albert Einstein, phác họa một bức tranh về thế giới đang bị thách thức và định hình bởi những công nghệ mới. Những lợi ích liên quan rất đa dạng và không hề “trung lập”. Trong bối cảnh này, Tòa Thánh – vốn không có mục tiêu quân sự hay thương mại – có thể đóng vai trò quan trọng trong việc thúc đẩy quản trị toàn cầu có khả năng phát triển những hệ thống “có đạo đức ngay từ giai đoạn thiết kế,”
Đây là một số chủ đề được nêu bật trong hội thảo “Tiềm năng và Thách thức của Trí tuệ Nhân tạo”, được tổ chức hôm thứ Hai, ngày 2 tháng Ba, tại Salone San Pio X trên đường Via della Conciliazione 5, bởi Ban Thư ký Kinh tế và Văn phòng Lao động của Tòa Thánh (ULSA).
Buổi hội thảo được khai mạc bởi Giáo sư Pasquale Passalacqua, Giám đốc ULSA, người lưu ý rằng chính Đức Thánh Cha Leo XIV, sau khi được Chủ tịch ULSA, Đức Ông Marco Sprizzi, thông báo về sáng kiến này, đã “đánh giá cao và khuyến khích”, bày tỏ hy vọng về “sự nhận thức sâu sắc hơn trong lĩnh vực phức tạp và rất quan trọng này”. Buổi thảo luận do Alessandro Gisotti, Phó Giám đốc Biên tập của Bộ Truyền thông, điều phối.
Các diễn giả gồm có Đức Giám mục Paul Tighe, Thư ký Bộ Văn hóa và Giáo dục; tu sỹ Dòng Phanxicô Paolo Benanti, giáo sư tại Đại học Giáo hoàng Gregorian và Đại học Luiss Guido Carli; và Giáo sư Corrado Giustozzi, giảng viên chương trình Thạc sỹ Kỹ thuật Hệ thống Thông minh tại Đại học Campus Bio-Medico ở Roma.
Để tóm tắt những hậu quả của việc ứng dụng rộng rãi ChatGPT vào năm 2022, Đức Giám mục Tighe đã sử dụng từ viết tắt VUCA: Biến động, Không chắc chắn, Phức tạp và Mơ hồ. Về vấn đề này, ông đề cập đến những diễn biến gần đây và trường hợp của Anthropic, một công ty có trụ sở tại Hoa Kỳ được thành lập với mục đích thúc đẩy trí tuệ nhân tạo có đạo đức hơn và được cho là đang chịu “áp lực từ chính phủ để nới lỏng những cam kết đạo đức liên quan đến việc sử dụng cho mục đích quân sự và giám sát.”
Đức Giám mục lưu ý rằng sự phát triển của các công nghệ mới không diễn ra trong không gian trung lập mà gắn liền với “sự cạnh tranh địa chính trị, áp lực thương mại và tham vọng cá nhân.”
Trước những phức tạp đó, Đức Giám mục đã đề cập đến tài liệu Antiqua et nova, chỉ ra rằng “sự khôn ngoan của trái tim, có khả năng tích hợp toàn thể và các bộ phận của nó,” là điều mà nhân loại cần nhất hiện nay.
Về phần mình, Giáo hội sở hữu “quyền uy đạo đức” và khả năng tập hợp những người đối thoại có trình độ, từ đó trở thành một đối tác có ý nghĩa trong việc hướng dẫn sự phát triển của trí tuệ nhân tạo.
Tổng kết những chủ đề của bài phát biểu, Đức Giám mục Gisotti nhấn mạnh rằng hội thảo cũng thể hiện một “cam kết” từ phía cộng đồng Giáo hội.
Bài trình bày của Cha Benanti tập trung vào những thách thức đạo đức của trí tuệ nhân tạo, đề xuất một “đạo đức công nghệ” mới đặt ra câu hỏi về “chính trị” ẩn chứa trong những mô hình đó. Vị tu sỹ dòng Phanxicô tuyên bố: “Mỗi hiện vật công nghệ, khi tác động đến bối cảnh xã hội, đều hoạt động như một cấu hình quyền lực và một hình thức trật tự.”
Ngài nói thêm rằng đây là một vấn đề cấp bách, được thảo luận tại “nhiều diễn đàn,” từ Tòa Thánh đến Liên Hiệp Quốc — Cha Benanti là thành viên người Ý duy nhất của Ủy ban Trí tuệ Nhân tạo của LHQ — nơi mà những “cấu trúc quyền lực” này ngày càng bị ảnh hưởng bởi các thỏa thuận thương mại. Sự năng động này cũng được phản ảnh trong lĩnh vực thông tin: khả năng hiển thị của một bài báo không nhất thiết phụ thuộc vào chất lượng của nó, mà ngày càng phụ thuộc vào vị trí mà thuật toán gán cho nó trên các trang web. Đó là một “sự trung gian của quyền lực,” Cha Benanti kết luận.
Bài phát biểu của Giáo sư Giustozzi tập trung vào bản chất của một trong những thành phần thiết yếu của AI: thuật toán, và những vấn đề quan trọng liên quan đến những quy trình ra quyết định dựa trên nó. Trong số đó có vấn đề về sự thiên vị: thuật toán đôi khi có thể kết hợp những định kiến — dù vô tình hay cố ý — làm sai lệch kết quả hoặc khiến chúng không công bằng.
Theo nghĩa này, quá trình huấn luyện — giai đoạn phát triển thuật toán thông qua dữ liệu đầu vào — có tầm quan trọng quyết định: nếu dữ liệu không đầy đủ hoặc bị sai lệch, kết quả chắc chắn sẽ sai hoặc mang tính phân biệt đối xử.
Nguyễn Minh Sơn