Header Ads

  • Breaking News

    Neil Savage -Tại sao trí tuệ nhân tạo cần hiểu các hệ quả

    Why artificial intelligence needs to understand consequences

    A machine with a grasp of cause and effect could learn more like a human, through imagination and regret. 

    Một cỗ máy với khả năng nắm bắt được nguyên nhân và kết quả có thể học hỏi giống con người hơn, thông qua trí tưởng tượng và sự hối tiếc.

    Bài viết này thuộc mục Nature Outlook: Robotics và trí tuệ nhân tạo, một phần bổ sung độc lập về mặt biên tập được sản xuất với sự hỗ trợ tài chính của các bên thứ ba. Xem thêm về nội dung này.

    Huỳnh Thị Thanh Trúc dịch

    https://www.nature.com/articles/d41586-023-00577-1

    Nguồn: Why artificial intelligence needs to understand consequences, Nature, Feb 24, 2023.


    Ảnh: Neil Webb

    Khi Rohit Bhattacharya bắt đầu học tiến sĩ về khoa học máy tính, mục tiêu của ông là xây dựng công cụ có thể giúp các bác sĩ xác định trong những người mắc bệnh ung thư ai sẽ đáp ứng tốt với liệu pháp miễn dịch. Hình thức điều trị này hỗ trợ hệ thống miễn dịch cơ thể chiến đấu với các khối u, và giỏi nhất trong việc ngăn chặn sự phát triển ác tính, vốn tạo ra các protein có thể liên kết với các tế bào miễn dịch. Ý tưởng của Bhattacharya là tạo ra các mạng lưới thần kinh có thể lập hồ sơ di truyền của cả khối u lẫn hệ thống miễn dịch của một người, từ đó dự đoán những ai sẽ có khả năng được hưởng lợi từ việc điều trị.

    Nhưng ông phát hiện ra rằng các thuật toán của mình không đáp ứng được nhiệm vụ. Bhattacharya có thể xác định các kiểu gien liên quan đến phản ứng miễn dịch, nhưng chừng đó là chưa đủ[1]. Ông giải thích: “Tôi không thể nói rằng kiểu liên kết cụ thể này, hoặc biểu hiện cụ thể này của gien, là yếu tố quyết định nguyên nhân trong phản ứng của bệnh nhân đối với liệu pháp miễn dịch.”

    Bhattacharya bị câu châm ngôn lâu đời rằng tương quan không có nghĩa là nhân quả cản trở – một trở ngại cơ bản trong trí tuệ nhân tạo (AI). Máy tính có thể được luyện để phát hiện các mẫu trong dữ liệu, ngay cả những mẫu rất tinh vi mà con người có thể bỏ sót. Và máy tính có thể sử dụng các mẫu đó để đưa ra dự đoán – ví dụ: một điểm trên phim chụp X-quang phổi cho biết có khối u[2]. Nhưng khi nói đến nguyên nhân và kết quả, máy móc thường đặc biệt bó tay. Chúng thiếu hiểu biết thường thức về cách thế giới vận hành, điều mà con người có được nhờ sống trong thế giới đó. Chẳng hạn, các chương trình AI được huấn luyện để phát hiện bệnh trong phim chụp X-quang phổi đôi khi đi chệch hướng vì mải tập trung vào các kí hiệu dùng để đánh dấu phía nào là bên phải tấm phim[3]. Rõ ràng, ít nhất đối với con người, là không có mối quan hệ nhân quả nào giữa kiểu dáng và vị trí của chữ “R” (right) trên phim chụp X-quang và các dấu hiệu của bệnh phổi. Nhưng nếu không có hiểu biết đó, bất kỳ điểm khác biệt nào trong cách vẽ hoặc chọn vị trí đánh dấu cũng có thể đủ hướng một cỗ máy đi nhầm đường.

    Theo Murat Kocaoglu, kỹ sư điện tại Đại học Purdue ở West Lafayette, Indiana, nếu máy tính muốn thực hiện bất kỳ kiểu ra quyết định nào, chúng đều cần hiểu biết về quan hệ nhân quả. “Bất cứ điều gì nằm ngoài dự đoán đều đòi hỏi một số hiểu biết về nguyên nhân,” anh nói. “Nếu muốn lên kế hoạch cho chuyện gì, hay tìm ra chính sách tốt nhất, bạn đều cần một loại mô-đun lập luận nhân quả nào đó.”

    Việc kết hợp các mô hình nguyên nhân và kết quả vào các thuật toán học máy cũng có thể giúp các máy móc tự hành đưa ra quyết định về cách chúng điều hướng trong thế giới thực. Kocaoglu nói: “Nếu bạn là một rô-bốt, bạn muốn biết điều gì sẽ xảy ra khi bạn tiến một bước theo góc này hay góc kia, hoặc khi bạn đẩy một vật thể.”

    Trong trường hợp của Bhattacharya, có khả năng đúng là một số gien mà hệ thống đã chỉ ra chịu trách nhiệm cho phản ứng tốt hơn đối với việc điều trị. Nhưng sự thiếu hiểu biết về quan hệ nhân quả ở đây nghĩa là phản ứng tốt hơn cũng có thể do phương pháp điều trị đang ảnh hưởng đến biểu hiện gien – hoặc một nhân tố ẩn khác đang ảnh hưởng đến cả hai. Giải pháp tiềm năng cho vấn đề này nằm ở một phương thức được gọi là suy luận nhân quả – một cách hình thức, sử dụng toán học để làm rõ xem biến này có ảnh hưởng đến biến kia hay không.


    Nhà khoa học máy tính Rohit Bhattacharya (phía sau) và nhóm của ông tại Đại học Williams ở Williamstown, Massachusetts, thảo luận về việc điều chỉnh học máy cho suy luận nhân quả. Ảnh: Mark Hopkins

    Suy luận nhân quả từ lâu đã được các nhà kinh tế học và các nhà dịch tễ học sử dụng để kiểm tra quan điểm của họ về quan hệ nhân quả. Giải Nobel về các khoa học kinh tế năm 2021 thuộc về ba nhà nghiên cứu đã dùng suy luận nhân quả để đặt ra các câu hỏi như liệu mức lương tối thiểu cao hơn có dẫn tới số việc làm ít đi hay việc đi học nhiều thêm một năm có ảnh hưởng gì đến thu nhập trong tương lai không. Giờ đây, ngày càng nhiều các nhà khoa học máy tính, trong đó có Bhattacharya, đang nỗ lực kết hợp quan hệ nhân quả với AI để cung cấp khả năng giải quyết những câu hỏi như vậy cho máy móc, giúp chúng đưa ra quyết định tốt hơn, học hỏi hiệu quả hơn và thích ứng với sự thay đổi.

    Một ý niệm về nhân quả là “kim chỉ nam” cho con người trong thế giới. Nhà khoa học máy tính Yoshua Bengio, người chỉ huy Mila – Viện trí tuệ nhân tạo Quebec, kết quả hợp tác giữa bốn trường đại học ở Montreal, Canada, cho biết: “Có được một mô hình nhân quả của thế giới, dù là mô hình không hoàn hảo – bởi đó là những gì chúng ta đang có – cho phép con người đưa ra các quyết định và dự đoán thiết thực hơn.” Việc con người nắm bắt được quan hệ nhân quả giúp nâng đỡ các phẩm chất như trí tưởng tượng và sự hối tiếc; cho máy tính một khả năng tương tự rất có thể sẽ biến đổi hoàn toàn năng lực của chúng.

    Tiến từng nấc thang

    Những thành công nổi bật của AI trong thập kỷ qua – chẳng hạn như giành chiến thắng trước con người trong các trò chơi tranh đua khác nhau, xác định nội dung của hình ảnh và, trong vài năm qua, tạo ra văn bản và hình ảnh để phản hồi cho yêu cầu bằng văn viết – đều dựa trên học sâu [deep learning]. Bằng cách nghiên cứu hàng loạt dữ liệu, các hệ thống như vậy tìm hiểu xem điều này tương quan với điều kia ra sao. Những mối tương quan đã học được này sau đó có thể được dùng vào việc khác. Nhưng đây chỉ là nấc thang đầu tiên hướng tới mục tiêu cao xa hơn: điều mà Judea Pearl, nhà khoa học máy tính và giám đốc Phòng thí nghiệm Hệ thống Nhận thức tại Đại học California, Los Angeles, gọi là “hiểu sâu” [deep understanding].

    Năm 2011, Pearl đã giành được Giải thưởng A.M. Turing, thường được gọi là giải Nobel trong khoa học máy tính, cho công trình phát triển một phép tính cho phép lập luận nhân quả và xác suất. Ông mô tả một hệ thống thứ bậc gồm ba cấp độ của lập luận[4]. Cấp độ cơ bản là “thấy” hoặc khả năng tìm mối liên hệ giữa các sự vật. Các hệ thống AI ngày nay làm việc này cực kỳ giỏi. Pearl đề cập đến cấp độ tiếp theo là “làm” – tạo một thay đổi đối với điều gì đó và ghi nhận xem điều gì sẽ xảy ra. Đây là lúc quan hệ nhân quả nhập cuộc.

    Một máy tính có thể phát triển mô hình nhân quả bằng cách kiểm tra các can thiệp: những thay đổi trong một biến ảnh hưởng đến biến khác như thế nào. Thay vì tạo một mô hình thống kê về mối quan hệ giữa các biến, như AI đang làm, chiếc máy tính tạo ra hàng loạt mô hình. Trong mỗi mô hình, mối quan hệ giữa các biến được giữ nguyên, nhưng giá trị của một hoặc một số biến bị sửa đổi. Sự thay đổi đó có thể dẫn đến một kết quả mới. Tất cả những điều này có thể ước lượng được bằng cách sử dụng toán xác suất và thống kê. “Tôi nghĩ suy luận nhân quả chỉ là việc toán học hóa cách con người đưa ra quyết định,” Bhattacharya nói.


    Yoshua Bengio (đứng trước) chỉ huy Viện Trí tuệ Nhân tạo Mila – Quebec ở Montreal, Canada. Ảnh: Viện AI Mila-Quebec

    Bengio, người đoạt Giải A.M. Turing vào năm 2018 nhờ công trình về học sâu, đã cùng các sinh viên của mình huấn luyện một mạng nơ-ron để tạo ra đồ thị đồ thị nhân quả[5] – một phương thức minh họa các mối quan hệ nhân quả. Ở cấp độ đơn giản nhất, nếu một biến sinh ra một biến khác, mối quan hệ được hiển thị bằng mũi tên trỏ từ biến này sang biến kia. Nếu hướng nhân quả bị đảo ngược, thì mũi tên cũng vậy. Và nếu cả hai biến không liên quan nhau, sẽ không có mũi tên nào liên kết chúng. Mạng nơ-ron của Bengio được thiết kế để tạo ngẫu nhiên một trong những đồ thị kiểu này, sau đó kiểm tra mức độ tương thích của kết quả với một tập dữ liệu nhất định. Các đồ thị khớp với dữ liệu tốt hơn thì nhiều khả năng sẽ chính xác hơn, vì vậy mạng nơ-ron học cách tạo thêm những đồ thị tương tự như các kết quả có vẻ chính xác đó, nhằm tìm kiếm một đồ thị phù hợp nhất với dữ liệu.

    Góc độ tiếp cận này tương tự cách con người tìm hiểu vấn đề: chúng ta tạo ra các mối quan hệ nhân quả khả dĩ và giả định rằng những mối quan hệ nào phù hợp nhất với một quan sát sẽ gần với sự thật nhất. Chẳng hạn, một người thấy tấm kính vỡ khi rơi trên nền bê tông có thể nghĩ rằng va chạm vào một bề mặt cứng sẽ làm vỡ kính. Thả các món đồ khác xuống bê tông hoặc đập thủy tinh lên thảm mềm, từ nhiều độ cao khác nhau, cho phép một người tinh chỉnh mô hình của họ về mối quan hệ này và dự đoán tốt hơn kết quả của những lần dò dẫm về sau.

    Đối mặt những thay đổi

    Lập luận nhân quả có một lợi ích chính là có thể giúp AI nâng cao khả năng ứng phó với các tình huống dễ thay đổi. Các hệ thống AI hiện tại vốn chỉ dự đoán dựa trên các liên kết trong dữ liệu rất dễ bị tổn thương trước bất kỳ thay đổi nào về mối liên quan giữa các biến. Khi phân phối thống kê của các mối quan hệ chúng học được từ trước bị thay đổi – dù là theo thời gian, do hành động của con người hay nhân tố bên ngoài khác – AI sẽ trở nên kém chính xác hơn.

    Chẳng hạn, Bengio có thể huấn luyện một chiếc ô tô tự lái trên những cung đường địa phương ở Montreal và AI có lẽ sẽ trở thành tài xế lái xe an toàn giỏi giang. Nhưng nếu xuất khẩu cùng một hệ thống đó sang Luân Đôn, nó sẽ báo hỏng ngay lập tức vì một lý do đơn giản: người lái ô tô ở Canada ngồi bên phải nhưng ở Anh thì tài xế ngồi bên trái, vậy là một số mối quan hệ AI đã học được giờ đây bị đảo ngược. Bengio có thể huấn luyện AI lại từ đầu bằng cách sử dụng dữ liệu từ Luân Đôn, nhưng việc này tốn thời gian và điều này có nghĩa là phần mềm sẽ không còn hoạt động được ở Montreal nữa, vì mô hình mới sẽ thay thế mô hình cũ.

    Trái lại, một mô hình nhân quả cho phép hệ thống học hỏi nhiều mối quan hệ có khả năng xảy ra. Bengio nói: “Thay vì chỉ có một tập hợp các mối quan hệ giữa tất cả những thứ bạn quan sát được, bạn có vô số. Bạn có một mô hình giải thích được chuyện gì có thể xảy đến khi có bất kỳ thay đổi nào tại một trong các biến số về môi trường xung quanh.”

    Con người vận hành theo mô hình nhân quả như vậy nên nhanh chóng thích ứng được với các thay đổi. Một người lái xe Canada có thể bay đến Luân Đôn và, sau khi mất chút thời gian điều chỉnh, anh ta có thể lái xe hoàn hảo ở bên trái đường. Bộ luật Cao tốc Vương quốc Anh khác Canada ở chỗ, muốn rẽ phải thì cần qua đường, nhưng luật không ảnh hưởng đến chuyện xảy ra khi người tài xế xoay bánh xe hoặc cách lốp xe tương tác với mặt đường. Bengio nói: “Mọi thứ chúng ta biết về thế giới về cơ bản đều giống nhau.” Mô hình nhân quả cho phép hệ thống xác định tác động của một can thiệp và giải thích nó theo hiểu biết hiện có của hệ thống đó về thế giới, thay vì phải học lại mọi thứ từ đầu.


    Judea Pearl, giám đốc Phòng thí nghiệm Hệ thống Nhận thức tại Đại học California, Los Angeles, người đã đoạt Giải A.M. Turing 2011. Ảnh: Trường Kỹ thuật Samueli UCLA

    Khả năng xoay xở với những thay đổi mà không loại bỏ mọi thứ đã biết cũng cho phép con người hiểu được những tình huống không có thật, chẳng hạn như phim giả tưởng. Bengio nói: “Bộ não của chúng ta có thể phóng chiếu bản thân vào một môi trường hư cấu trong đó có một vài thứ bị biến đổi. Các định luật vật lý khác lạ, hoặc có quái vật tồn tại, nhưng phần còn lại thì như cũ.”

    Đối lập với sự thật

    Năng lực tưởng tượng đứng đầu trong hệ thống phân cấp lập luận nhân quả của Pearl. Bhattacharya nói, mấu chốt ở đây là suy đoán về kết quả của những hành động không thực sự diễn ra.

    Bhattacharya thích giải thích những điều phản thực tế như vậy cho sinh viên của mình bằng cách đọc cho họ nghe bài thơ “The Road Not Taken” (tạm dịch: Con đường không được chọn) của Robert Frost. Trong bài thơ, người kể chuyện phải chọn một trong hai lối đi xuyên rừng và bày tỏ sự tiếc nuối vì không biết con đường còn lại dẫn đến đâu. “Chàng trai đang tưởng tượng cuộc đời mình sẽ ra sao nếu anh chọn đi ngả này thay vì lối còn lại,” Bhattacharya nói. Đó là điều mà các nhà khoa học máy tính muốn sao chép bằng những cỗ máy có khả năng suy luận nhân quả: khả năng đặt những câu hỏi “nếu như”.

    Tưởng tượng liệu một kết quả sẽ tốt lên hay tệ đi nếu ta chọn một hành động khác là phương thức học hỏi quan trọng của con người. Bhattacharya nói rằng nếu trang bị cho AI khả năng tương tự với cái gọi là “sự hối tiếc phản thực” [counterfactual regret] thì sẽ rất hữu ích. Cỗ máy này có thể chạy các kịch bản dựa trên các lựa chọn nó đã không làm theo và định lượng xem nếu thực hiện một lựa chọn khác thì có tốt hơn không. Một số nhà khoa học đã sử dụng sự hối tiếc phản thực để giúp máy tính cải thiện khả năng chơi poker[6].

    Khả năng tưởng tượng các kịch bản khác nhau cũng có thể giúp khắc phục một số hạn chế của AI hiện tại, chẳng hạn như khó phản ứng trước các sự kiện hiếm gặp. Bengio cho biết, theo định nghĩa, các sự kiện hiếm nếu có thì cũng chỉ xuất hiện thưa thớt trong dữ liệu mà một hệ thống được huấn luyện, thế nên AI không thể học về chúng. Một người lái xe ô tô có thể tưởng tượng ra sự cố mà họ chưa từng thấy, chẳng hạn như một chiếc máy bay nhỏ đang hạ cánh trên đường và vận dụng hiểu biết về cách mọi thứ vận hành để đưa ra các chiến lược tiềm năng nhằm đối phó với tình huống cụ thể đó. Một chiếc ô tô tự lái không có khả năng suy luận nhân quả, dù có thể chọn phương án mặc định tối ưu là chế độ phản ứng chung khi có vật cản trên đường. Bằng cách sử dụng phản thực tế để tìm hiểu các quy tắc về cách mọi thứ hoạt động, ô tô có thể được chuẩn bị tốt hơn cho các sự kiện hiếm gặp. Hoạt động dựa trên nguyên tắc nhân quả hơn là một danh sách các ví dụ thực tiễn cuối cùng sẽ làm hệ thống linh hoạt hơn.

    Sử dụng quan hệ nhân quả để lập trình trí tưởng tượng trên máy tính thậm chí có thể cho ra đời một nhà khoa học tự động. Trong hội nghị thượng đỉnh trực tuyến năm 2021 do Microsoft Research tài trợ, Pearl đã gợi ý rằng một hệ thống như vậy có thể tạo ra một giả thuyết, chọn ra quan sát tốt nhất để kiểm tra giả thuyết này và sau đó quyết định thí nghiệm nào sẽ cung cấp quan sát đó.

    Tuy nhiên, điều này hiện tại vẫn còn xa vời. Lý thuyết và toán học cơ bản về suy luận nhân quả đã được thiết lập xong, nhưng các phương pháp để AI thực hiện can thiệp và suy luận phản thực tế vẫn còn ở giai đoạn sơ khai. “Đây vẫn là nghiên cứu ở cấp vô cùng cơ bản,” Bengio nói. “Chúng tôi đang ở giai đoạn tìm tòi các thuật toán một cách rất đơn giản.” Khi các nhà nghiên cứu đã nắm bắt được những nguyên tắc nền tảng này, các thuật toán sẽ cần tiếp tục được tối ưu hóa để chạy hiệu quả. Chưa rõ toàn bộ những việc này sẽ mất bao lâu. “Tôi cảm thấy như chúng ta có tất cả các công cụ khái niệm để giải quyết bài toán này và tất cả vấn đề chỉ là cần vài năm nữa, nhưng thường thì sẽ tốn nhiều thời gian hơn bạn mong đợi,” Bengio nói. “Có lẽ là hàng thập kỷ.”

    Bhattacharya cho rằng các nhà nghiên cứu nên học hỏi từ học máy, sự phát triển nhanh chóng của lĩnh vực này phần nào là nhờ các lập trình viên đang phát triển phần mềm mã nguồn mở cho phép mọi người truy cập vào các công cụ cơ bản để viết thuật toán. Các công cụ suy luận nhân quả tương đương có thể có tác động tương tự. “Có rất nhiều phát triển thú vị trong những năm gần đây,” Bhattacharya nói, bao gồm một số gói mã nguồn mở từ gã khổng lồ công nghệ Microsoft và từ Đại học Carnegie Mellon ở Pittsburgh, Pennsylvania. Ông và các đồng nghiệp cũng đã phát triển một mô-đun nhân quả mã nguồn mở mà họ gọi là Ananke. Nhưng các gói phần mềm này vẫn đang trong quá trình phát triển.

    Bhattacharya cũng mong khái niệm suy luận nhân quả được giới thiệu tại các giai đoạn sớm hơn trong đào tạo máy tính. Ông nói, hiện nay, chủ đề này chủ yếu được giảng dạy ở cấp độ sau đại học, trong khi học máy phổ biến trong đào tạo đại học. “Lập luận nhân quả đủ cơ bản để tôi hy vọng nó được giới thiệu dưới dạng đơn giản hóa ở cấp trung học phổ thông,” ông nói.

    Nếu các nhà nghiên cứu này thành công trong việc đưa nhân quả vào điện toán, AI có thể đạt một cấp độ tinh vi hoàn toàn mới. Rô-bốt có thể điều hướng đi khắp nơi dễ dàng hơn. Xe tự lái trở nên đáng tin cậy hơn. Các chương trình đánh giá hoạt động của gien có thể mang lại hiểu biết mới về cơ chế sinh học, từ đó cho phép phát triển các loại thuốc mới và tốt hơn. “Điều đó có thể thay đổi ngành y,” Bengio nói.

    Ngay cả những công cụ như ChatGPT, con chatbot tạo ngôn ngữ tự nhiên nổi tiếng vốn có khả năng tạo ra văn bản nhìn giống như người viết, cũng có thể hưởng lợi từ việc tích hợp quan hệ nhân quả. Hiện nay, thuật toán của ChatGPT đang tự phản bội mình khi tạo ra các văn bản viết sáng rõ nhưng mâu thuẫn với chính nó và đi ngược lại những gì chúng ta biết là chính xác về thế giới. Với quan hệ nhân quả, ChatGPT có thể xây dựng một dàn ý mạch lạc cho những gì nó đang cố truyền đạt và đảm bảo rằng dàn ý đó nhất quán với các dữ kiện như chúng ta biết.

    Khi được hỏi liệu chuyện đó có khiến các nhà văn mất việc hay không, Bengio trả lời rằng có lẽ còn cần một khoảng thời gian. “Vậy nếu bạn mất việc trong mười năm nữa, nhưng thoát khỏi ung thư và bệnh Alzheimer thì sao,” anh ấy nói. "Kèo này hời mà."

    doi: https://doi.org/10.1038/d41586-023-00577-1 

    Bài viết này thuộc mục Nature Outlook: Robotics và trí tuệ nhân tạo, một phần bổ sung độc lập về mặt biên tập được sản xuất với sự hỗ trợ tài chính của các bên thứ ba. Xem thêm về nội dung này.

    Huỳnh Thị Thanh Trúc dịch

    Nguồn: Why artificial intelligence needs to understand consequences, Nature, Feb 24, 2023.


    Tài liệu tham khảo

    [1] Shao, X. M. et al. Cancer Immunol. Res. 8, 396–408 (2020).
    Article PubMed Google Scholar 
    [2] Chiu, H.-Y., Chao, H.-S. & Chen, Y.-M. Cancers 14, 1370 (2022).
    Article PubMed Google Scholar 
    [3] DeGrave, A. J., Janizek, J. D. & Lee, S.-I. Nature Mach. Intell. 3, 610–619 (2021).
    Article Google Scholar 
    [4] Pearl, J. Commun. ACM 62, 54–60 (2019).
    Article Google Scholar 
    [5] Deleu, T. et al. Preprint at https://arxiv.org/abs/2202.13903 (2022).
    [6] Brown, N., Lerer, A., Gross, S. & Sandholm, T. Preprint at https://arxiv.org/abs/1811.00164 (2019).

    http://www.phantichkinhte123.com/2023/04


    Không có nhận xét nào