Đang xử lý.....

“AI có trách nhiệm” giúp tạo dựng niềm tin cho các Chính phủ  

Phát triển Trí tuệ nhân tạo (AI ) tại Việt Nam Được đánh giá là một trong những quốc gia Đông Nam Á nhanh nhạy về Trí tuệ Nhân tạo (AI), Việt Nam đang đứng trước rất nhiều cơ hội mà ứng dụng này mang lại, nếu khắc phục được những thách thức về đào tạo, nghiên cứu, và đầu tư. Những năm gần đây, Trí tuệ Nhân tạo tại Việt Nam được hình thành và ngày càng phát triển, đi sâu vào một số lĩnh vực kinh tế, xã hội như thương mại điện tử, giao thông vận tài, giáo dục,...
Thứ Tư, 29/12/2021 401
|

Năm 2020, Việt Nam đứng thứ 76/172 quốc gia về chỉ số sẵn sàng cho AI. Đầu năm 2021, Thủ tướng đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030. Chiến lược đưa ra nhằm đẩy mạnh nghiên cứu, phát triển và ứng dụng AI, đưa AI trở thành lĩnh vực công nghệ quan trọng của Việt Nam trong cuộc Cách mạng công nghiệp lần thứ tư. Chiến lược được ban hành với hy vọng tạo ra cú huých cho sự phát triển AI của Việt nam, góp phần phát triển kinh tế xã hội và từng bước đưa Việt Nam trở thành điểm sáng về AI trong khu vực và trên thế giới.

Tuy nhiên, lĩnh vực AI của Việt Nam vẫn còn đối diện với một số khó khăn như đầu tư của nhà nước còn hạn chế, thiếu tập trung, hiệu quả chưa cao, đầu tư công của Việt Nam vào KH&CN còn nhỏ (khoảng 0,4% GDP); chưa có chiến lược phát triển dữ liệu quốc gia, chưa có chính sách quốc gia và lộ trình phát triển AI, chưa có khung pháp lý riêng cho AI...

()“AI có trách nhiệm” là hoạt động thiết kế, phát triển và triển khai AI với mục đích tốt để trao quyền cho nhân viên và doanh nghiệp, đồng thời tác động công bằng đến khách hàng và xã hội

Mô hình khái niệm AI có trách nhiệm

Các chính phủ kết hợp trí tuệ nhân tạo vào quá trình ra quyết định có thể sẽ mang lại hiệu quả rất cao. Ví dụ như triển khai các hệ thống tích hợp AI một cách hiệu quả để quản lý năng lực bệnh viện, điều tiết giao thông và xác định phương thức phân phối lợi ích xã hội và cung cấp dịch vụ.

Sự khác biệt chính giữa một hệ thống hoạt động hiệu quả và một hệ thống không hiệu quả nằm ở cách chúng được thiết kế và giám sát. Để dẫm đến kết quả thành công cần bao gồm quản trị phù hợp, các quy trình được xây dựng kỹ lưỡng dựa trên đầu vào có cân nhắc lợi ích của các bên liên quan bị ảnh hưởng và sự minh bạch về vai trò của AI trong việc ra quyết định.

Tương tự với hệ thống AI, phương pháp xây dựng như vậy được gọi là hệ thống “AI có trách nhiệm”. Để xây dựng hệ thống này, các chính phủ phải trao quyền điều hành và sử dụng AI với mục đích để nâng cao khả năng ra quyết định của con người chứ không phải thay thế nó. Phương pháp tiếp cận AI có trách nhiệm bao gồm các đánh giá thường xuyên, tích hợp với các công cụ và mô hình dữ liệu tiêu chuẩn, và một kế hoạch để quản trị rủi ro.

Bên cạnh đó, còn có những lĩnh vực khác để áp dụng. Lĩnh vực mua sắm, đầu tư công có thể coi là phương án hiệu quả để thúc đẩy việc áp dụng rộng rãi AI có trách nhiệm. việc tuân thủ các nguyên tắc AI có trách nhiệm có thể được xét trở thành điều kiện tiên quyết trong việc đàu thầu các hợp đồng trong khu vực công, các cơ quan có thể đảm bảo rằng thành quả họ có được tạo ra là đúng đắn và minh bạch, đồng thời dần dần tích hợp dần AI vào quá trình ra quyết định của khu vực công.

Cẩn trọng trong việc triển khai hệ thống AI của Chính phủ

Trong quá khứ gần đây, một số sai sót được công bố rộng rãi đã minh họa tác đông vô tình có thể xảy đến với cá nhân hoặc xã hội khi các hệ thống AI của Chính phủ không được thiết kế, xây dựng hoặc triển khai một cách có trách nhiệm. Điểm khác biệt lớn nhất của một hệ thống AI hiệu quả và không hiệu quả nằm ở cách chúng được tạo ra và theo dõi, vận hành. Một số trường hợp có thể kể đến là:

- Sau khi các kỳ thi tuyển sinh đại học bị hủy bỏ vì đại dịch, chính phủ Vương quốc Anh đã sử dụng một thuật toán xác định điểm dựa trên thành tích trong quá khứ của học sinh. Hệ thống này đã giảm điểm của gần 40% học sinh và dẫn đến cáo buộc rằng nó thiên vị đối với những thí sinh có hoàn cảnh kinh tế xã hội khó khăn.

- Một tòa án Hà Lan đã ra lệnh cho chính phủ ngừng sử dụng một hệ thống dựa trên một thuật toán không được tiết lộ nhằm dự đoán về những trường hợp sẽ tuân thủ quy định hay gian lận thuế sau khi xác định rằng hệ thống này vi phạm luật nhân quyền và Quy định chung về bảo vệ dữ liệu của Liên minh Châu Âu. Các nhóm công dân đã khởi kiện sau khi phát hiện ra rằng hệ thống được sử dụng để nhắm mục tiêu vào các khu vực ngoại ô với phần lớn là các nhóm thiểu số thiểu số và thu nhập thấp.

- Một tổ chức phi chính phủ tại địa phương đã kiện Buenos Aires vì ​​vi phạm quyền trẻ em sau khi thành phố áp dụng hệ thống nhận dạng khuôn mặt để tìm ra các nghi phạm tội phạm. Hệ thống dựa trên cơ sở dữ liệu chứa thông tin về trẻ em dưới bốn tuổi.

- Một cơ quan kiểm soát biên giới Hoa Kỳ đã triển khai ứng dụng quét sinh trắc học được xây dựng trên hệ thống máy học từ nhiều nhà cung cấp. Khi không thể giải thích tỷ lệ thất bại do bản chất độc quyền của công nghệ, đã làm nảy sinh mối quan tâm của dư luận về trách nhiệm giải trình và hiệu quả đầu tư mua sắm của cơ quan.

Nhiều sai sót tương tự đã dẫn đến những sự chỉ trích và khiến cho nhiều cơ quan bị khởi kiện. Tại Hoa Kỳ, những lo ngại về hệ thống quyết định dựa trên thuật toán trong chăm sóc sức khỏe, tư pháp hình sự, giáo dục, việc làm và các lĩnh vực khác đã dẫn đến các vụ kiện. Sự chậm trễ cũng dẫn đến việc phải theo dõi, áp lệnh cấm đối với các nhà sản xuất không đủ tiêu chuẩn và ban hành các chính sách, luật để hạn chế việc sử dụng hệ thống AI của khu vực công hoặc ít nhất là để chúng minh bạch hơn. Một báo cáo của ủy ban quốc hội Vương quốc Anh năm 2020 về AI và các tiêu chuẩn công cho thấy rằng các cơ quan chính phủ và khu vực công đang không thật sự minh bạch về việc sử dụng AI. Báo cáo kêu gọi chính phủ duy trì các tiêu chuẩn minh bạch và tạo ra các quy trình giám sát hiệu quả để giảm thiểu rủi ro.

Khi các hệ thống AI của chính phủ hoạt động kém hiệu quả, niềm tin vào các tổ chức công sẽ bị xói mòn. Theo thời gian, những việc như vậy có thể làm mất uy tín của chính phủ cũng như niềm tin và sự ủng hộ của công dân đối với Chính phủ nói chung. Theo nghiên cứu của Tập đoàn tư vấn Boston (BCG), khi người dân có trải nghiệm tích cực với việc sử dụng các dịch vụ công ích trực tuyến sẽ củng cố lòng tin của họ đối với chính phủ. Nhưng khi họ có trải nghiệm tiêu cực, điều đó có tác động tiêu cực đến sự tin tưởng. Nếu việc triển khai AI của các chính phủ là để giành được sự tin tưởng của người dân, thì họ cần phải làm đúng. AI có trách nhiệm sẽ thúc đẩy cả niềm tin vào chính phủ, giúp cho việc triển khai các ứng dụng AI được thuận lợi và lâu dài hơn.

Lợi ích của “AI có trách nhiệm” đối với Chính phủ

Khi các chính phủ cần ban hành các quy định để tạo hành lang pháp lý cho việc sử dụng các công nghệ mới nổi, thì những công nghệ gây dựng lòng tin của công dân sẽ có lợi hơn khi sử dụng AI để cải thiện hạnh phúc xã hội. Ngoài việc cung cấp các lợi ích trực tiếp của hệ thống AI, các giải pháp ​​AI có trách nhiệm có thể thúc đẩy tính hợp pháp của chính phủ, tăng cường hỗ trợ cho việc sử dụng AI và giúp thu hút và giữ chân những nhân sự có kỹ năng số.

Quá trình phát triển AI có trách nhiệm của các cơ quan trong chính phủ

Thúc đẩy uy tín của Chính phủ: Các ứng dụng dựa trên AI chỉ chiếm một phần nhỏ trong tất cả các hệ thống và quy trình của chính phủ, nhưng chúng có tác động rất lớn đến nhận thức của mọi người về các tổ chức chính phủ. Tạo ra AI một cách có trách nhiệm có thể khuyến khích niềm tin rằng chính phủ đang phục vụ lợi ích tốt nhất của công dân và xã hội. Khi việc sử dụng AI của chính phủ gia tăng và tác động của nó ngày càng lan rộng, lợi ích của việc áp dụng phương pháp tiếp cận có trách nhiệm sẽ ngày càng tăng.

Một đặc điểm nổi bật của AI có trách nhiệm là phát triển toàn diện. Việc cân nhắc, xem xét kỹ lưỡng trên nhiều khía cạnh đảm bảo rằng mô hình hoặc đánh giá dựa trên AI sẽ đối xử công bằng với tất cả các nhóm đối tượng tượng và không vô tình gây hại cho bất kỳ cá nhân hoặc nhóm nào. Bằng cách tìm kiếm đầu vào từ nhiều bên liên quan - các nhóm công dân, học giả, khu vực tư nhân và những người khác - các chính phủ cũng mang lại sự minh bạch cho quy trình, có thể xây dựng lòng tin và khuyến khích tương tác hiệu quả đối với AI và các công nghệ số khác.

Tăng cường Hỗ trợ Chính phủ sử dụng AI: Trong một nghiên cứu trước đây của BCG, hơn 30% những người được khảo sát cho biết họ có những lo ngại nghiêm trọng về các vấn đề đạo đức liên quan đến việc chính phủ sử dụng AI. Những lo ngại như vậy khiến mọi người không ủng hộ AI. Nếu các chính phủ muốn nhận ra những lợi ích tiềm năng của AI, họ phải thực hiện các nguyên tắc để chứng tỏ rằng có chuyên môn, quy trình và tính minh bạch cần thiết để giải quyết các vấn đề đạo đức đó.

Một chương trình AI có trách nhiệm có thể giảm bớt sự phản đối của cộng đồng và tạo điều kiện thuận lợi cho các chính phủ theo đuổi việc áp dụng lâu dài các công cụ và dịch vụ AI. Chương trình nên bao gồm một chiến lược truyền thông tốt, trình bày chi tiết các bước đang được thực hiện để đảm bảo rằng dịch AI được cung cấp một cách có trách nhiệm.

Ngày càng có nhiều người nhận ra những lợi ích và tác hại tiềm ẩn do các công nghệ mới nổi mang lại. Nếu các tổ chức chính phủ hành động một cách có trách nhiệm, họ sẽ có nhiều sự tin tưởng hơn để triển khai AI nhằm cải thiện hiệu quả hoạt động của chính họ.

Thu hút và giữ chân nhân viên có kỹ năng số: Trong bối cảnh toàn cầu thiếu hụt nhân lực kỹ thuật, nhu cầu đặc biệt cao lực lượng lao động có kỹ năng AI là nhân viên có kỹ năng số. Bởi vì các công ty thuộc khu vực tư nhân có thể chi trả nhiều hơn để thu hút nhân lực, họ có lợi thế khác biệt so với các chính phủ khi tuyển dụng và giữ chân nhân viên. Vì vậy các chính phủ phải tìm một cách khác để cạnh tranh.

Một lựa chọn khác là các chính phủ sẽ trở thành trở thành người sáng của AI có trách nhiệm. Những người làm công nghệ đặc biệt quan tâm đến các tác động đạo đức của các hệ thống mà họ tạo ra. Trong một nghiên cứu về nhân viên công nghệ ở Anh, cứ sáu nhân viên AI thì có một người cho biết họ đã bỏ việc thay vì tham gia phát triển các sản phẩm mà họ tin rằng có thể gây hại cho xã hội. Mang đến cơ hội làm việc trong một môi trường có tính đến mối quan tâm của nhân viên và người dân và nơi AI rõ ràng được sử dụng vì lợi ích công cộng, có thể thu hút thêm nhiều người có kỹ năng cần thiết vào các công việc trong khu vực công.

Ai sẽ đảm nhiệm việc phát triển các sản phẩm AI có trách nhiệm

Theo đuổi AI một cách có trách nhiệm không phải là một lựa chọn giữa có hoặc không. Các chính phủ có thể nhận ra lợi ích của AI và cung cấp công nghệ một cách có trách nhiệm, có đạo đức. Nhiều người đã thực hiện bước đầu tiên là tạo ra và công bố các nguyên tắc AI. Một bài báo năm 2019 trên tạp chí Nature Machine Intelligence đã báo cáo rằng 26 cơ quan chính phủ và tổ chức đa quốc gia trên toàn thế giới đã công bố các nguyên tắc AI. Tuy nhiên, phần lớn trong số đó không đầy đủ, thiếu những hướng nào về cách áp dụng các nguyên tắc này vào thực tế, để lại một lỗ hổng có thể làm sâu sắc thêm nhận thức tiêu cực về việc sử dụng AI của chính phủ.

Các chính phủ có thể tạo ra một lộ trình để xây dựng một chương trình AI có trách nhiệm bằng cách trao quyền cho lãnh đạo, phát triển các nguyên tắc và chính sách, thiết lập cơ chế quản trị giữa con người và AI, thực hiện đánh giá trường hợp sử dụng, tích hợp các công cụ và phương pháp và xây dựng và thử nghiệm một kế hoạch ứng phó trong trường hợp AI hoạt động không hiệu quả.

                                                                   Nguyễn Công Minh

Tài liệu tham khảo

[1]https://www.bcg.com/publications/2021/responsible-ai-builds-trust-in-government