Toàn văn diễn từ của Đức Giáo Hoàng Phanxicô tại Hội Nghị G7 về Trí tuệ nhân tạo và tương lai nhân loại

Bài diễn văn của Đức Giáo Hoàng Phanxicô về trí tuệ nhân tạo trong hội nghị G7, hôm thứ sáu 14/6/2024 tại Pouilles, Italia. Đức Giáo Hoàng đã cảnh báo chống việc sử dụng trí tuệ nhân tạo (IA) cho quân sự, ngài kêu gọi hãy cấm các « vũ khí sát thương tự chủ ».

Ảnh: Vatican News

Thưa quý ông bà !

Ngày hôm nay tôi thưa chuyện cùng quý vị, những người lãnh đạo của Diễn Đàn liên chính phủ G7, để trình bầy cùng quý vị một suy nghĩ về những tác dụng của trí tuệ nhân tạo đối với tương lai của nhân loại.

« Thánh Kinh chứng thực rằng Thiên Chúa đã ban Thần Khí của Người cho con người để con người có sự ‘‘khéo tay, giỏi giang và lành nghề mà làm mọi công việc’’ ( Xh 35, 31) » [1]. Như thế, khoa học và kỹ thuật là những sản phẩm phi thường của tiềm năng sáng tạo của con người [2].

Vậy, chính việc sử dụng tiềm năng sáng tạo đó do Thiên Chúa ban cho là nguồn gốc của trí tuệ nhân tạo.

Chính nó, như người ta đã biết, là một khí cụ cực mạnh, được sử dụng trong nhiều lãnh vực của hoạt động con người : từ y học đến thế giới lao động, từ văn hóa đến truyền thông, từ giáo dục đến chính trị. Và từ nay, người ta có thể cho rằng việc sử dụng nó sẽ ngày càng ảnh hưởng đến lối sống, đến những quan hệ xã hội của chúng ta và thậm chí, trong tương lai, đến cách chúng ta quan niệm về căn tính con người của chúng ta [3].

Chủ đề trí tuệ nhân tạo tuy vậy vẫn được cho là có tính chất nước đôi : một mặt, nó làm phấn khởi bởi những khả năng mà nó mang lại, mặt khác, nó dấy lên một nỗi sợ hãi bởi những hậu quả mà nó có thể được dự đoán. Về mặt này, người ta có thể nói rằng tất cả chúng ta, ở những mức độ khác nhau, đã trải qua hai cảm xúc : chúng ta phấn khởi khi chúng ta tưởng tượng ra những tiến bộ có thể toát ra từ trí tuệ nhân tạo, nhưng đồng thời, chúng ta cũng lo sợ khi chúng ta thấy được những nguy cơ gắn liền với việc sử dụng nó [4].

Ngoài ra, chúng ta không thể nghi ngờ là sự xuất hiện của trí tuệ nhân tạo tượng trưng cho một cuộc cách mạng công nghệ – tri thức đích thực, sẽ đóng góp cho sự kiến tạo một hệ thống xã hội mới được đặc trưng bởi những biến đổi lịch sử phức tạp. Thí dụ, trí tuệ nhân tạo có thể sẽ giúp cho sự dân chủ hóa tiếp cận tri thức, cho sự tiến bộ luỹ thừa của nghiên cứu khoa học, cho khả năng ký thác các công việc nặng nhọc cho máy móc ; nhưng, đồng thời, nó cũng có thể dẫn tới một sự bất công lớn hơn giữa các nước giàu và những nước đang trên đà phát triển, giữa các giai cấp xã hội thống trị và những giai cấp xã hội bị đàn áp, và như thế, sẽ làm tổn hại đến khả năng có một ‘‘nền văn hóa gặp gỡ’’ có lợi cho một ‘‘nền văn hóa thải loại’’.

Quy mô của những biến đổi phức tạp này, đương nhiên gắn liền với sự phát triển kỹ thuật nhanh chóng của chính trí tuệ nhân tạo.

Chính cũng là sự tiến bộ kỹ thuật mạnh mẽ này đã làm cho trí tuệ nhân tạo trở thành một khí cụ hấp dẫn và đáng sợ và nó đòi hỏi một sự suy nghĩ tương xứng với tình hình.

Trong ý nghĩa này, người ta có lẽ phải xuất phát từ nhận xét rằng trí tuệ nhân tạo trước hết là một khí cụ. Và đương nhiên là những lợi ích hay những tổn hại nó đem lại tùy thuộc và việc sử dụng nó.

Điều này chắc chắn là thật, vì đã như vậy đối với tất cả các khí cụ được con người làm ra từ thời thượng cổ.

Khả năng sáng chế dụng cụ của chúng ta cả về số lượng lẫn độ phức tạp đã không một loài sinh vật nào sánh bằng, khiến đã được gọi là một điều kiện kỹ thuật loài người : con người luôn duy trì một quan hệ với môi trường qua trung gian các công cụ mà con người đã dần dần sản xuất ra. Không thể tách rời lịch sử loài người và nền văn minh ra khỏi những dụng cụ đó. Một số người đã muốn thấy trong tất cả những điều đó, một thứ thiếu sót, một sự thiếu hụt của con người, như thể vì lý do sự thiếu hụt đó, bắt buộc phải khai sinh ra kỹ thuật [5]. Một cái nhìn thận trọng và khách quan lại cho thấy ngược lại. Chúng ta sống trong điều kiện hậu thế so với con người sinh học của chúng ta ; chúng ta là những sinh vật không cân bằng đối với bề ngoài của chúng ta, thậm chí còn hoàn toàn mở ra với thế giới bên kia. Chính từ đó mà chúng ta đã mở lòng ra với người khác và với Thiên Chúa ; chính từ đó đã nẩy sinh ra tiềm năng sáng tạo của trí tuệ chúng ta về văn hóa và về vẻ đẹp ; chính từ đó mà sau cùng, đã nẩy sinh khả năng kỹ thuật của chúng ta. Kỹ thuật do đó là dấu vết của tính hậu thế.

Tuy nhiên việc sử dụng các dụng cụ của chúng ta không phải lúc nào cũng luôn hướng về điều thiện. Ngay cả nếu con người cảm thấy trong mình một ơn gọi hướng về bên kia thế giới và về tri thức như là khí cụ của điều thiện để phục vụ những người anh chị em và cho ngôi nhà chung của chúng ta (x. Gaudium et spes, số 16), thì điều đó cũng không luôn xẩy ra. Trái lại, không hiếm khi thấy được rằng, chính bởi vì sự tự do triệt để của mình mà nhân loại đã làm hư hỏng những mục đích của bản thể của mình bằng cách tự biến đổi mình thành kẻ thù của chính mình cũng như của trái đất [6]. Các dụng cụ kỹ thuật có thể cũng trải qua cùng số phận. Chỉ khi nào ơn gọi phục vụ nhân loại của chúng được bảo đảm thì các dụng cụ kỹ thuật mới nâng cao không những sự cao cả và phẩm giá của con người, mà còn sứ mệnh mà con người đã nhận được là ‘‘cầy cấy và canh giữ’’ (x. St 2, 15) hành tinh và tất cả các cư dân của nó. Nói đến kỹ thuật, tức là nói đến ý nghĩa của con người và của điều kiện duy nhất của chúng ta giữa tự do và trách nhiệm, nghĩa là nói đến đạo đức.

Khi tổ tiên chúng ta mài đá lửa để làm dao, các cụ đã sử dụng chúng vừa để cắt da thú may quần áo và cũng để giết nhau. Người ta có thể làm như thế đối với những kỹ thuật rất tân tiến hơn, như năng lựợng được sản xuất bởi sự hợp nhất các nguyên tử như nó đã xẩy ra cách tự nhiên trên mặt trời, nó chắc chắn có thể sử dụng để sản xuất một năng lượng có thể tái tạo, nhưng nó cũng có thể biến hành tinh của chúng ta thành một đống tro tàn.

Trong khi đó, trí tuệ nhân tạo lại là một khí cụ còn phức tạp hơn nữa. Tôi có thể nói đây là một khí cụ đặc chủng. Trong lúc mà việc sử dụng một dụng cụ đơn giản (như con dao chẳng hạn) nằm dưới sự kiểm soát của con người sử dụng nó và việc sử dụng tốt xấu chỉ tùy thuộc vào con người, thì ngược lại, trí tuệ nhân tạo có thể tự động thích ứng với nhiệm vụ mà nó được giao phó, và nếu nó được thiết kế như thế, tức là thực hiện sự chọn lựa độc lập với con người để đạt tới mục đích được ấn định [7].

Phải luôn nhớ rằng máy móc, trong một số hình thức và bằng những phương tiện mới mẻ này, có thể đưa ra những lựa chọn thuật toán. Điều mà máy móc làm được là một lựa chọn kỹ thuật giữa nhiều khả năng và đặt nền tảng hoặc là trên những tiêu chí được ấn định sẵn, hoặc là trên những suy luận mang tính thống kê. Về phần con người thì không những con người chọn lựa, mà trong thâm tâm mình, con người có khả năng quyết định. Sự quyết định là một yếu tố mà chúng ta có thể quan niệm một cách chiến lược hơn là một sự chọn lựa và cần phải có một sự đánh giá thực tiễn. Đôi khi, và rất nhiều khi trong nhiệm vụ quản trị khó khăn, chúng ta cần phải đưa ra những quyết định với những hậu quả đối với nhiều người khác. Xưa nay, tư duy con người nói về vấn đề này là sự khôn ngoan, sự minh mẫn của triết lý Hy Lạp và ít là một phần nào đó của sự khôn ngoan của Kinh Thánh. Đối mặt với các máy móc, vốn dường như có khả năng chọn lựa một cách tự chủ, chúng ta phải minh bạch về sự kiện là sự quyết định luôn phải dành cho con người, kể cả trong một khúc quanh mang tính thảm khốc và cấp bách đôi khi xẩy ra trong cuộc đời của chúng ta. Chúng ta sẽ có thể kết án nhân loại phải có một tương lai vô vọng nếu chúng ta tước đoạt con người khả năng quyết định về chính mình và về cuộc sống của mình, kết án họ phải tùy thuộc vào những chọn lựa của máy móc. Chúng ta phải bảo đảm và bảo vệ một không gian cho quyền kiểm soát đáng kể của con người trong tiến trình chọn lựa các phương trình của trí tuệ nhân tạo : chính phẩm giá con người tùy thuộc vào điều này vậy.

Tôi mạn phép nhấn mạnh ngay về chủ đề này : trong một thảm trạng như xung đột vũ trang chẳng hạn : cấp thiết là phải suy nghĩ lại về sự phát triển và sử dụng những thiết bị như các « vũ khí sát thương tự chủ » để ngăn cấm việc sử dụng chúng, bằng cách bắt đầu ngay bằng một sự cam kết tích cực và cụ thể để đưa sự kiểm soát của con người theo một cách ngày càng đáng kể. Không bao giờ được để một cỗ máy có thể chọn lựa lấy đi mạng sống của một con người.

Ngoài ra, cũng phải nói thêm rằng việc sử dụng tốt, ít là những dạng tiên tiến của trí tuệ nhân tạo, sẽ không hoàn toàn nằm dưới sự kiểm soát của những người sử dụng chúng hay những người chế tạo ra chúng đã ấn định những mục đích nguyên thủy vào thời điểm thiết kế. Điều này còn thực tế hơn nữa và rất có thể xảy ra là, trong một tương lai khá gần, các phương trình của trí tuệ nhân tạo có thể trực tiếp thông tin với nhau để cải thiện hiệu suất của chúng. Và nếu như, trong quá khứ, con người đã làm ra các dụng cụ đơn gian và đã thấy cuộc sống của họ đã bị chính chúng làm cho thay đổi – con dao vốn được chế tạo để tồn tại qua cái giá lạnh, nhưng cũng đã làm phát triển nghệ thuật chiến tranh -, bây giờ con người lại làm ra một dụng cụ phức tạp thì họ sẽ thấy dụng cụ này sẽ còn làm biến đổi cuộc sống của họ nhiều hơn nữa [8].

Cơ chế căn bản của trí tuệ nhân tạo

Bây giờ tôi muốn ngắn gọn đề cập đến sự phức tạp của trí tuệ nhân tạo. Trong bản chất của nó, trí tuệ nhân tạo là một dụng cụ được thiết kế để giải quyết một vấn đề và hoạt động bằng một chuỗi hợp lý các phép toán đại số, được thực hiện trên các loại dữ liệu, vốn được so sánh để khám phá những quan hệ qua lại, bằng cách cải thiện giá trị thống kê của chúng, nhờ vào một tiến trình tự học, đặt nền tảng trên sự tìm kiếm những dữ liệu mới và sự tự biến đổi các tiến trình tính toán của nó.

Như thế, trí tuệ nhân tạo là để giải quyết những vấn đề chuyên biệt, nhưng đối với những người sử dụng nó, cám dỗ nhiều khi khó vượt qua là, từ những giải pháp đặc trưng mà nó đề nghị, lại muốn rút ra những suy luận chung, thậm chí mang tính nhân chủng học.

Một đề nghị điển hình là sự sử dụng những chương trình nhằm giúp các vị thẩm phán quyết định về việc quản thúc tại gia những phạm nhân đang thi hành án tại một nhà tù. Trong trường hợp này, người ta yêu cầu trí tuệ nhân tạo làm một dự đoán tái phạm về một tội ác do một kẻ bị kết án đã phạm dựa trên những danh mục đã được ấn định trước (loại tội phạm, các hành vi trong tù, đánh giá tâm lý và những mục khác), cho phép trí tuệ nhân tạo có thể tiếp xúc với những danh mục các dữ kiện liên quan đến đời sống riêng tư của người bị kết án (nguồn gốc chủng tộc, trình độ học vấn, giới hạn tín dụng và những mục khác). Việc sử dụng một phương pháp như vậy – vốn có mối nguy là thực tế phó thác cho máy móc quyết định về vận mạng của một con ngưòi – có thể ngầm đưa tới sự thiên vị cố hữu đối với những danh mục dữ kiện được sử dụng bởi trí tuệ nhân tạo.

Sự kiện bị xếp vào một nhóm chủng tộc nhất định nào đó, hay nói nôm na hơn, ví dụ như là đã từng phạm một tội nhỏ nhiều năm trước (chẳng hạn như không trả tiền phạt vì đậu xe nơi bị cấm), quả sẽ ảnh hưởng đến quyết định liên quan đến sự kiện đưa ra hay không một lệnh quản thúc tại gia. Trái lại, con người luôn tiến hóa và tỏ ra có khả năng gây ngạc nhiên bởi những hành động của mình, đó là điều mà máy móc không thể tính đến.

Cũng cần ghi nhận rằng những ứng dụng tương tự với ứng dụng vừa được nêu trên  sẽ tằng tốc vì các chương trình của trí tuệ nhân tạo ngày càng được trang bị khả năng tương tác trực tiếp với con người (chatbots), bằng cách có thể chuyện trò với con người và thiết lập với họ những quan hệ chặt chẽ, nhiều khi rất thoải mái và gây yên tâm, bởi vì những chương trình của trí tuệ nhân tạo sẽ được thiết kế để học cách  trả lời, một cách riêng tư cá nhân, cho những nhu cầu vật lý và tâm lý của con người.

Việc quên rằng trí tuệ nhân tạo không phải là một con người khác và nó không thể đề nghị những nguyên tắc tổng quát, thường là một sai lầm trầm trọng xuất phát từ nhu cầu sâu xa trong con người là tìm kiếm một hình thức gần gũi ổn định hay một một hình thức giả định trước vô thức về phía mình, như là những quan sát có được bằng cách của một cơ chế tính toán có những đức tính xác thực không thể chối cãi và mang tính phổ quát không thể bác bỏ được.

Tuy vậy, giả thuyết này có rủi ro, như đã được chứng minh bởi sự xem xét các giới hạn nội tại của chính khoa tính toán. Trí tuệ nhân tạo sử dụng các phép tính đại số phải tiến hành trong một trình tự lôgic (thí dụ, nếu giá trị của X lớn hơn giá trị của Y, người ta lấy X nhân với Y ; nếu không người ta lấy X chia cho Y). Phương pháp toán này được gọi là ‘‘thuật toán’’, không thể hiện tính khách quan cũng như tính trung lập [9]. Quả vậy, bởi vì nó được đặt nền tảng trên đại số, nên nó chỉ có thể kiểm tra những thực tế được hình thành dưới dạng số [10].

Cũng đừng quên rằng thuật toán, được thiết kế để giải quyết các vấn đề rất phức tạp, lại rất tinh vi đến độ bản thân các lập trình viên cũng khó mà hiểu chính xác cách nào họ có thể thành công có được kết quả. Xu hướng tinh vi hóa này có rủi ro sẽ tăng tốc một cách đáng kể với sự du nhập các máy tính lượng tử vốn không hoạt động với những mạch nhị phân (bán dẫn hay chips), nhưng theo những định luật, coi như là ít phức tạp nhất, của vật lý lượng tử. Mặt khác, việc liên tục đưa vào sử dụng các loại chips ngày càng có hiệu năng cao đã trở thành một trong những nguyên nhân của sự ưu tiên sử dụng trí tuệ nhân tạo bởi một số quốc gia được trang bị chúng.

Dù là tinh vi hay không, chất lượng của các câu trả lời do các chương trình của trí tuệ nhân tạo cung cấp, cuối cùng, tùy thuộc vào những dữ liệu chúng sử dụng và cách thức chúng được cấu trúc.

Sau hết, tôi muốn nhấn mạnh đến lãnh vực sau cùng, trong đó thể hiện rõ ràng sự phức tạp của cơ chế trí tuệ nhân tạo, được gọi là trí tuệ nhân tạo sinh sản (Generative Artificial Intelligence). Ngày hôm nay, không ai còn nghi ngờ là hiện đang có những dụng cụ tuyệt vời để tiếp cận với kiến thức và cho phép tự học và tự giám hộ trong vô số lãnh vực. Nhiều người trong chúng ta đã bị ấn tượng bởi những ứng dụng dễ dàng có sẵn trực tuyến để soạn thảo một văn bản hay thực hiện một hình vẽ về bất cứ một đề tài hay một vấn đề nào. Các sinh viên đặc biệt tỏ ra bị thu hút bởi viễn tượng này, khi họ phải chuẩn bị bài làm, họ đã sử dụng nó một cách quá lố.

Tuy nhiên, các sinh viên này, thường được chuẩn bị tốt hơn và quen sử dụng trí tuệ nhân tạo hơn là các giáo sư, họ quên rằng trí tuệ nhân tạo mang tiếng là tạo sinh, theo nghĩa hẹp, thực chất không hề ‘‘tạo sinh’’. Quả vậy, nó tìm kiếm các thông tin trong những dữ liệu lớn và trang bị chúng theo kiểu mẫu chúng được yêu cầu. Nó không khai triển những khái niệm mới hay những phân tích mới. Nó nhắc lại những gì nó tìm được, bằng cách cho chúng một hình dạng hấp dẫn. Và một khái niệm hoặc một giả thuyết, nếu được lập lại càng nhiều thì nó càng mang tính ‘‘tăng cường’’, trong chiều hướng nó tái tổ chức các nội dung sẵn có, góp phần vào việc củng cố chúng, nhiều khi không kiểm chứng xem chúng có chứa đựng những sai lầm hoặc những thiên kiến hay không.

Điều này có nguy cơ không chỉ là hợp pháp hóa những tin tức giả và tăng cường sức mạnh của một nền văn hóa thống trị, mà còn làm tổn hại quá trình giáo dục ngay từ lúc phôi thai. Giáo dục vốn phải cung cấp cho các sinh viên một tư duy đích thực thì lại có rủi ro co cụm thành một sự lập lại những khái niệm, vốn sẽ ngày càng bị đánh giá là không chối cãi được, đơn giản bởi vì liên tục được lặp lại [11].

Đặt lại phẩm giá con người vào trung tâm của một đề nghị đạo đức chung

Lúc này, cần thêm một nhận xét tổng quát hơn về những gì đã được nói qua. Mùa canh tân kỹ thuật mà hiện nay chúng ta đang trải qua quả có đi kèm theo một tình huống xã hội đặc biệt chưa từng có : về những vấn đề lớn của đời sống xã hội, ngày càng khó khăn để tìm ra sự đồng thuận. Ngay cả trong những cộng đồng được đặc trưng bởi một sự liên tục về văn hóa, các cuộc tranh luận và đấu đá sôi nổi vẫn thường xẩy ra, gây khó khăn cho sự đưa ra những suy nghĩ và những giải pháp chính trị chung nhằm tìm kiếm điều tốt lành và điều đúng đắn. Ngoài tính phức tạp của những nhãn quan hợp pháp đặc trưng của gia đình nhân loại, một yếu tố nổi lên dường như kết hợp các sự kiện khác nhau này. Chúng ta chứng kiến một sự biến mất hay ít ra là một sự lu mờ của ý nghĩa con người và một sự không đáng kể bề ngoài của quan niệm về phẩm giá con người [12]. Dường như chúng ta đã mất đi giá trị và ý nghĩa sâu sắc của một trong những thể loại căn bản của Phương Tây : thể loại con người. Vào lúc này, khi mà những chương trình của trí tuệ nhân tạo đang đặt vấn đề về con người và hoạt động của họ, thì chính là sự yếu kém về đạo đức gắn liền với sự nhận thức giá trị và phẩm giá của con người lại có rủi ro là một trở ngại lớn nhất trong việc thực hiện và khai triển những hệ thống đó. Quả vậy, không được quên rằng, không có sự đổi mới nào là trung tính. Kỹ thuật sinh ra trong một mục đích nhất định, và trong tác động của nó lên xã hội loài người, nó luôn thể hiện một hình thức trật tự trong những quan hệ xã hội và một sự bố trí quyền lực, cho phép một số người này thực hiện các hành động và ngăn cản những người khác làm một số công việc khác. Tầm vóc được xây dựng của quyền lực của kỹ thuật luôn bao gồm, một cách tương đối rành mạch, cách nhìn về thế giới của những người đã thiết kế và triển khai nó.

Điều này cũng có giá trị đối với các chương trình của trí tuệ nhân tạo. Để chúng có thể là những dụng cụ cho sự xây dựng điều thiện và một tương lai tốt lành hơn, chúng phải luôn được chỉ đạo để thực hiện diều tốt cho mọi con người. Chúng phải có một thiên hứng đạo đức.

Quả vậy, quyết định đạo đức là quyết định không chỉ tính tới những kết quả của một hành động, mà còn tính tới những giá trị đã được đầu tư và những bổn phận do chúng phát sinh ra. Bởi vậy, tôi đã đón nhận một cách thuận lợi, việc ký kết tại Rôma, năm 2020 ‘‘Lời Kêu Gọi Rôma cho Đạo Đức Trí Tuệ Nhân Tạo’’ (Rome Call for AI Ethics) [13] và sự hỗ trợ của nó đối với việc điều hòa đạo đức các thuật toán và các chương trình của trí tuệ nhân tạo mà tôi gọi là ‘‘đạo đức thuật toán’’ [14]. Trong một bối cảnh số nhiều và toàn cầu, nơi cũng đã được hiển thị những nhạy cảm khác nhau và những hệ thống thứ bậc số nhiều trong các thang giá trị, dường như khó có thể tìm được một hệ thống thứ bậc duy nhất của các giá trị. Nhưng trong phân tích đạo đức, chúng ta cũng có thể nhờ đến những loại dụng cụ khác : nếu chúng ta gặp khó khăn để xác định một tổng hợp duy nhất các giá trị toàn cầu, thì mặc dù vậy, chúng ta có thể tìm được những nguyên tắc chung để có thể tiếp cận và giải quyết mọi vấn đề nan giải hay tranh chấp trong cuộc sống.

Đây là lý do mà Lời Kêu Gọi Rôma được ra đời : Trong thuật ngữ ‘‘đạo đức-thuật toán’’, được cô đọng một loạt các nguyên tắc vốn tỏ ra là một nền tảng toàn cầu và số nhiều có khả năng tìm được sự hỗ trợ của các nền văn hóa, các tôn giáo, các tổ chức quốc tế và các xí nghiệp lớn vốn là những tác nhân của sự phát triển này.

Nền chính trị mà chúng ta cần

Như vậy, chúng ta không nên che dấu sự rủi ro cụ thể, vì nó vốn có trong cơ chế căn bản của nó, vì trí tuệ nhân toại giới hạn cái nhìn của thế giới trong những thực tế được biểu hiện bằng những con số và bị khép kín trong những thể loại đã được định trước, bằng cách loại bỏ sự cống hiến của những hình thức chân lý khác và áp đặt những mô thức nhân chủng học, xã hội-kinh tế và văn hóa đơn điệu. Lúc đó, mô thức kỹ thuật được thể hiện qua trí tuệ nhân tạo có rủi ro nhường chỗ cho một mô thức nguy hiểm hơn rất nhiều, mà tôi đã nhận định dưới thuật ngữ ‘‘mô thức kỹ trị’’ [15]. Chúng ta không được cho phép một công cụ mạnh mẽ và cần thiết như là trí tuệ nhân tạo tăng cường một mô thức như thế được ; trái lại, chúng ta phải biến trí tuệ nhân tạo thành một bức tường thành chính là để chống lại sự bành trướng của nó.

Và đây đúng là lúc mà hành động chính trị trở nên cấp bách, như sự điệp Fratelli tutti đã nhắc nhở chúng ta. Đương nhiên, « đối với nhiều người, ngày nay từ ngữ chính trị là một từ ngữ xấu và người ta không thể không biết đến căn nguyên của sự kiện này, là thường hay có những sai lầm, có tham nhũng, có sự vô hiệu của một số các chính trị gia. Thêm vào đó, những kế sách nhằm làm suy yếu chính trị, nhằm thay thế nó bằng kinh tế hay đặt nó dưới một chủ thuyết nào đó. Nhưng thế giới liệu có còn vận hành được không khi không có chính trị ? Liệu có thể có một con đường thích đáng để dẫn tới tình huynh đệ phổ quát và nền hòa bình xã hội mà không có chính trị hay không ? » [16].

Câu trả lời những câu hỏi vừa rồi của chúng tôi là : không ! Chính trị là cần thiết ! Nhân dịp này, tôi muốn tái khẳng định rằng « đối mặt với bao hình thức chính trị ti tiện và thiển cận […] nền chính trị vĩ đại thể hiện trong những lúc khó khăn, và về dài hạn, người ta hành động vì những nguyên tắc cao thượng và bận tâm đến công ích. [17].

Thưa quý ông bà :

Sự suy nghĩ của tôi về những tác dụng của trí tuệ nhân tạo đối với tương lai của nhân loại như thế đã đưa chúng ta đến việc xem xét tầm quan trọng của một ‘‘nền chính trị lành mạnh’’ để dự kiến tương lai của chúng ta với niềm hy vọng và tin tưởng. Như tôi đã nói ở nơi khác, « trên bình diện toàn cầu, xã hội có những khuyết điểm nghiêm trọng về cấu trúc mà người ta không thể giải quyết được bằng cách vá víu hay bằng những giải pháp nhanh chóng, thuần tuý thời cơ. Một số điều phải được thay đổi nhờ những sự xét lại căn bản và những biến đổi quan trọng. Chỉ có một nền chính trị lành mạnh mới có thể thực hiện những thay đổi này, bằng cách động viên các khu vực đa dạng nhất và những tri thức khác biệt nhất. Bằng cách đó, một nền kinh tế hội nhập trong một dự án chính trị, xã hội, văn hóa và đại chúng nhằm vào công ích mới có thể « mở ra con đường cho những thời cơ khác nhau không kéo theo việc ngăn chặn sáng kiến và giấc mơ tiến bộ của con người, nhưng là hướng nguồn năng lượng tới những con đường mới’’ (Laudato si’, Số 191) » [18].

Đây chính là trường hợp của trí tuệ nhân tạo. Trách nhiệm thuộc về mỗi con người là phải sử dụng nó một cách tốt lành và thuộc về nền chính trị là phải tạo những điều kiện để việc sử dụng này có thể khả thi và mang nhiều hoa trái.

Cảm ơn

[1] Sứ điệp Ngày Hòa Bình Thế Giới lần thứ 57 ngày 01/01/2024, số 1.
[2] Xem Ibid.
[3] X. Ibid, số 2.
[4] Tính nước đôi này đã được Đức Thánh Giáo Hoàng Phaolô VI nhấn mạnh trong bài diễn từ trước nhân viên của ‘‘Trung tâm tự động hóa các phân tích ngôn ngữ’’ của Aloysianum, ngày 19/6/7364.
[5] Xem A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo, Milano 1983, trang 43.
[6] Xem Thông điệp Ladato si’ (24/5/2015) số 102-114.
[7] Sứ điệp cho Ngày Hòa Bình Thế Giới lần thứ 57 ngày 01/01/2024, số 3.
[8] Những trực giác của Marshall McLuhan và của John M. Culkin đặc biệt thích đáng liên quan đến những hậu quả của việc sử dụng trí tuệ nhân tạo.
[9] Xem Bài diễn văn trước các tham dự viên của Đại Hội Khoáng Đại của Hàn Lâm Viện Giáo Hoàng về sự sống, ngày 28/02/2020.
[10] Xem Sứ điệp Ngày Hòa Bình Thế Giới lần thứ 57 ngày 01/01/2024, số 4.
[11] Xem Ibid, số 3 và 7.
[12] Xem Bộ Giáo Lý và Đức Tin, Truyên ngôn Dignitas infinita về phẩm giá con người (02/4/2024).
[13] Xem Bài diễn văn trước các tham dự viên của Đại Hội Khoáng Đại của Hàn Lâm Viện Giáo Hoàng về sự sống, ngày 28/02/2020.
[14] Xem Bài diễn văn trước các tham dự viên của Hội Nghị ‘‘Promoting Digital Child Dignity – From concet to action’’, ngày 14/11/2019 ; Bài diễn văn trước các tham dự viên của Đại Hội Khoáng Đại của Hàn Lâm Viện Giáo Hoàng về sự sống, ngày 28/02/2020.
[15] Để có một bài đầy đủ hơn, tôi xin chuyển về Thông điệp Laudato si’ của tôi về việc bảo vệ ngôi nhà chung ngày 24/5/2015.
[16] Thông điệp Fratelli tutti về tình huynh đệ và tình bằng hữu xã hội (3/10/2020), số 176.
[17] Ibid., số 178.
[18] Ibid., số 179.
Nguồn : G7 : discours du Pape François sur l’intelligence artificielle – Église catholique en France

Mai Khôi dịch