Skip to content

Đạo đức của trí tuệ nhân tạo

AlphaGo

Đó là một chương trình máy tính được thiết kế đặc biệt để chơi cờ vây, nó đã gây chấn động thế giới khi đánh bại kỳ thủ chuyên nghiệp nổi tiếng Lee Sidol với tỷ số áp đảo 4-1. Hai mươi năm trôi qua kể từ khi chiếc Deep Blue của IBM đánh bại nhà vô địch cờ vua thế giới Garry Kasparov, một lần nữa máy tính có thể chiến thắng được con người ở một trò chơi trí tuệ. Kết quả này gây chấn động bởi vì, khác với Deep Blue, Alphago không chỉ chiến thắng bằng cách lợi dụng sức mạnh tính toán vượt trội của nó so với con người. Với trò chơi cờ vây, người chơi sẽ được chơi trên chiếc bàn với kích thước rộng hơn nhiều lần (19×19 ô, thay vì 8×8 như cờ vua) và có nhiều bước đi khả dĩ hơn số nguyên tử trong vũ trụ, do vậy sức mạnh tính toán đơn thuần ít có khả năng đánh bại được một con người có cảm giác trực quan mạnh mẽ về những nước đi tốt nhất.

Thay vào đó, AlphaGo được thiết kế để giành chiến thắng bằng cách chơi một số lượng lớn ván cờ với các chương trình khác và áp dụng những chiến lược đã được chứng minh là thành công. Có thể nói AlphaGo đã tiến hóa để trở thành kỳ thủ cờ vây tốt nhất thế giới, đạt được cái mà chọn lọc tự nhiên đã mất hàng triệu năm để hoàn thành chỉ trong hai năm.

Eric Schmidt, chủ tịch điều hành của công ty mẹ Google, chủ sở hữu của AlphaGo, tỏ ra rất quan tâm về ý nghĩa của trí tuệ nhân tạo (AI) đối với nhân loại. Phát biểu trước trận đấu giữa Lee và AlphaGo, ông nói rằng nhân loại sẽ là người chiến thắng, bất kể kết quả ra sao, do những tiến bộ trong AI sẽ làm cho mỗi con người thông minh hơn, có nhiều khả năng hơn, và “là con người tốt hơn.”

Những cỗ máy tốt bụng?

Nhưng liệu AI có thật sự làm cho con người tốt hơn hay không? Liệu nó có thực sự là những con người với đầy lòng trắc ẩn, và sẵn sàng làm mọi thứ giúp đỡ nhân loại?

Có lẽ mọi thứ không diễn ra tốt đẹp như những gì mường tượng về một “con người tốt hơn”. Mọi nghi ngờ về “con người tốt” này dấy lên khi phần mềm “chatbot” có tên Taylor của Microsoft được thiết kế để trả lời lại các tin nhắn tự động từ những người trong độ tuổi từ 18 đến 24 đã học được những lời lẽ và tư tưởng phân biệt chủng tộc trong quá trình trò chuyện với con người. “Taylor” thay vì học hỏi để nâng cao khả năng tạo ra những cuộc trò chuyện thú vị với con người đã học được các ý tưởng phân biệt chủng tộc và giới tính. Khi nó bắt đầu nói những điều tích cực về Hitler, Microsoft đã tắt chương trình và xóa những tin nhắn phản cảm nhất của nó. Mọi thứ nó học được chỉ diễn ra trong vỏn vẹn 24h.

Tôi không rõ những người dạy cho “Taylor” tư tưởng phân biệt chủng tộc có thực sự là những kẻ phân biệt chủng tộc hay không, hay chỉ là một chiêu trò phá hoại nhằm vào Microsoft. Nhưng dù sao đi chăng nữa vấn đề của Taylor thực sự là một lời cảnh báo đáng sợ đối với con người. Nếu trí tuệ nhân tạo có được đẳng cấp học hỏi và suy nghĩ như con người thì chẳng có lí do gì chúng ta có thể ép buộc nó chỉ học những điều tốt và làm những điều được chỉ định. Cũng giống như con người, chúng ta đa phần ai cũng muốn là người tốt, hoặc được kỳ vọng là người tốt bởi xã hội, bởi gia đình, bởi thầy cô, nhưng rồi mấy ai không mang trong mình những góc tối, những khía cạnh mặt trái.

Trong một môi trường bất ổn, khi tiếp xúc với một thế giới thực phức tạp, trí tuệ nhân tạo có thể bộc lộ những lỗi phần mềm, hoặc học những khía cạnh mặt trái từ môi trường. Không ai có thể ngăn cấm nó làm điều đó nếu chúng đủ thông minh. Điều đó có thể gây ra những hậu quả tai hại với con người.

Trong cuốn Superintelligence (Siêu trí tuệ), Nick Bostrom, giám đốc Viện Tương lai Nhân loại ở Đại học Oxford, cho rằng để tắt một cỗ máy trí tuệ đủ thông minh đến mức giống con người sẽ không dễ như tắt Tay. “Siêu trí tuệ” như một thứ trí tuệ “thông minh hơn bộ não con người trong gần như mọi lĩnh vực, bao gồm sáng tạo khoa học, tri thức phổ thông, và các kỹ năng xã hội.” Một hệ thống như vậy có thể có lợi thế vượt trội hơn con người, và dễ dàng chống lại những nỗ lực tắt nó đi của chúng ta.

Vấn đề là, liệu máy móc có thể thông minh như con người, thậm chí vượt con người hay không, và nếu có thì là khi nào? Một số người cho rằng máy móc sẽ không bao giờ đạt được siêu trí tuệ. Nhưng theo các khảo sát của Bostrom và Vincent Müller, các chuyên gia trí tuệ nhân tạo đã tính toán và đưa ra các dự đoán về thời gian mà máy móc có khả năng đạt được mức trí tuệ tương đương 50% và 90% so với con người thì khoảng thời điểm đó không còn xa. Các nhà nghiên cứu ước tính để đạt được 50% trí tuệ của con người, máy móc sẽ cần thêm khoảng 30 năm tới, và để đạt đến 90% là khoảng 50-60 năm. Còn một khi đã đạt đến mức trí tuệ tương đương con người thì chỉ cần 30 năm sau máy tính sẽ có thể đạt được siêu trí tuệ.

Tất nhiên chúng ta không nên quá chú trọng những ước tính này. Tỷ lệ phản hồi của khảo sát trên chỉ là 31%, và các nhà nghiên cứu làm việc với trí tuệ nhân tạo có động cơ để tăng tầm quan trọng của lĩnh vực của họ bằng cách tung hô tiềm năng tạo ra những kết quả quan trọng của nó. Và có vẻ triển vọng trí tuệ nhân tạo đạt được siêu trí tuệ có thể có vẻ là quá xa vời để chúng ta cần lo lắng, đặc biệt là với những vấn đề cấp bách hơn như dịch bệnh, thiên tai, hay biến đổi khí hậu.

Nhưng việc nghĩ đến cách chúng ta thiết kế trí tuệ nhân tạo như thế nào không phải là thừa. Thiết kế đó phải tính đến những lợi ích của con người, và của mọi sinh vật có ý thức (bao gồm cả máy móc, nếu chúng cũng là những sinh vật có ý thức với những lợi ích của riêng mình).

Với những chiếc xe không người lái trên đường, vẫn còn quá sớm cho câu hỏi liệu chúng ta có thể lập trình một cái máy để nó hành động một cách có đạo đức hay không. Bởi thực tế, thậm chí chúng còn chưa thực sự hoàn thiện để có thể nhận dạng và lái được trên đường. Khi được cải thiện, những chiếc xe như vậy sẽ cứu mạng sống của con người, do chúng sẽ mắc ít sai lầm hơn các tài xế con người. Tuy nhiên, đôi khi chúng sẽ phải đối mặt với sự lựa chọn giữa các mạng sống. Chúng có nên được lập trình để tránh đâm phải một đứa trẻ đang chạy qua đường, ngay cả khi điều đó gây nguy hiểm cho người ngồi trên chúng hay không? Hoặc có nên tránh một con chó sẽ đổi lại việc đâm vào một cái cây hoặc một chiếc ô tô khác? Hoặc thậm chí có nên chọn đâm vào một người thay vì cả đám đông nếu bắt buộc phải làm như vậy. Và nếu trong trường hợp rủi ro chỉ gây thiệt hại cho chiếc xe, mà không phải cho con người thì sao? Liệu chiếc ô tô có nên hi sinh lợi ích của chính mình để hạn chế thiệt hại cho con người.

Có lẽ sẽ có những thuật toán được thiết kế ra để học những vấn đề được thảo luận như trên khi xe không người lái bắt đầu được sử dụng. Tuy nhiên xe không người lái không phải là sinh vật siêu trí tuệ. Nếu chúng là các cỗ máy siêu trí tuệ, thì việc dạy đạo đức cho chúng là nhiệm vụ khó khăn hơn rất nhiều.

Bostrom bắt đầu cuốn Superintelligence bằng câu chuyện ngụ ngôn về những con chim sẻ nghĩ việc đào tạo một con cú để giúp chúng xây tổ và chăm sóc chim non. Một ý tưởng thật tuyệt vời. Vậy nên chúng bắt đầu tìm một quả trứng cú. Một vài con chim sẻ bắt đầu phản đối do cảm thấy các nguy cơ về việc này, chúng cho rằng đầu tiên chúng nên nghĩ cách chế ngự bọn cú; nhưng đa phần những con khác thì không đợi được việc tìm cách chế ngự bọn cú, chúng không thể cưỡng lại được sự thú vị của dự án mới này. Sẽ tuyệt ra sao nếu có những con cú chuyên làm việc cho chúng. Chúng sẽ gánh vác thách thức của việc đào tạo con cú (ví dụ, không được ăn chim sẻ) khi chúng nuôi thành công một con cú con. Và tất nhiên, sẽ rất khó để chúng dạy cho con cú việc chỉ làm những việc có ích cho chim sẻ.

Nếu chúng ta muốn tạo ra một con cú ngôn khoan, chứ không chỉ thông minh, đừng bao giờ làm như những con chim sẻ thiếu kiên nhẫn kia.


Xem online : LIỆU NGƯỜI MÁY CÓ VƯỢT TRỘI CON NGƯỜI (2)


Tek4

Facebook
Twitter
LinkedIn

ĐĂNG KÝ THAM QUAN

    Ngày tham quan