Hợp tác toàn cầu để đặt trí tuệ nhân tạo trong khuôn khổ an toàn

Toàn cảnh thế giới-Chủ nhật, ngày 05/11/2023 14:28 GMT+7

VTV.vn - Trí tuệ nhân tạo sẽ ngày càng thông minh hơn, làm được những điều con người chưa làm được. Điều đó mang lại nhiều tích cực nhưng cũng có thể được sử dụng với mục đích xấu.

Trợ lý ảo thông minh sẽ ngày càng hỗ trợ con người nhiều hơn, suy nghĩ và thực hiện nhiệm vụ thay con người và giỏi hơn con người. Lâu nay, chúng ta cứ nói trí tuệ nhân tạo làm việc việc này việc kia như con người, ví dụ như trò chuyện, chơi nhạc, làm bác sĩ đưa ra các chuẩn đoán y tế… Nhưng giờ đây, trí tuệ nhân tạo (AI) làm được như con người đã xưa rồi. Rất nhanh, chúng đã thông minh hơn con người, làm được những điều mà con người chưa làm được. Điều đó mang lại nhiều tích cực nhưng cũng có thể được sử dụng với mục đích xấu.

Vì vậy, phải có sự kiểm soát, phải có "vòng kim cô" để siết cỗ máy này vào vùng an toàn. Đó là điều đặt ra trong hội nghị thượng đỉnh toàn cầu đầu tiên về trí tuệ nhân tạo tổ chức ở Bretchley, Vương quốc Anh, nơi các nhà lãnh đạo đã thông qua "Tuyên bố Bletchley" về việc bảo đảm an toàn khi sử dụng trí tuệ nhân tạo.

Tuyên bố Bletchley về trí tuệ nhân tạo

Trong tuyên bố Chủ tịch của hội nghị, nước chủ nhà Anh cho biết, điều quan trọng là trí tuệ nhân tạo phải được phát triển một cách an toàn, các rủi ro tiềm ẩn của các mô hình trí tuệ nhân tạo mới phải được đánh giá nghiêm ngặt cả trước và sau khi được triển khai, bao gồm cả các mối nguy hại tiềm ẩn.

Thỏa thuận mang tính bước ngoặt này về trí tuệ nhân tạo có sự nhất trí của Mỹ, Anh, Pháp, Đức, Italy, Liên minh châu Âu, Nhật Bản, Hàn Quốc, Singapore, Australia và Canada.

Hợp tác toàn cầu để đặt trí tuệ nhân tạo trong khuôn khổ an toàn - Ảnh 1.

Thủ tướng Anh Rishi Sunak (Ảnh: AP)

Thủ tướng Anh Rishi Sunak nhấn mạnh: "Cho đến nay, những người duy nhất kiểm tra tính an toàn của các mô hình AI mới là các công ty đang phát triển AI. Điều đó phải thay đổi. Dựa trên các đề xuất được đưa ra của nhóm G7 và mối quan hệ đối tác toàn cầu về AI, các chính phủ và công ty AI có cùng chí hướng đã đạt được mục tiêu một thỏa thuận mang tính bước ngoặt. Chúng tôi sẽ cùng nhau thử nghiệm tính an toàn của các mô hình AI mới trước khi chúng được phát hành".

Ngay trước hội nghị, Anh và sau đó là Mỹ đã thông báo thành lập Viện An toàn trí tuệ nhân tạo để đánh giá rủi ro, xem xét mức độ an toàn của các mô hình trí tuệ nhân tạo. 8 công ty công nghệ hàng đầu gồm Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI và Open AI đã đồng ý "tăng cường" quyền truy cập cho Lực lượng đặc nhiệm AI của Anh.

"Chúng ta không thể mong đợi các công ty này tự đánh giá với các sản phẩm của họ mà phải là trách nhiệm của chính phủ. Đó là lý do tại sao chúng tôi thành lập Viện An toàn trí tuệ nhân tạo ở Anh mà tôi hy vọng có thể trở thành viện nghiên cứu hàng đầu thế giới về an toàn của những mô hình này" - Thủ tướng Anh tuyên bố.

Trong một nỗ lực đảm bảo an toàn trí tuệ nhân tạo, Anh cho biết cũng đạt được thỏa thuận thành lập một ban cố vấn quốc tế về các rủi ro hàng đầu từ trí tuệ nhân tạo. Ban cố vấn này sẽ có mô hình tương tự hội đồng liên chính phủ về biến đổi khí hậu, được thành lập với các đại diện của 28 quốc gia.

Đặt trí tuệ nhân tạo trong khuôn khổ an toàn

Theo Tiến sĩ Nguyễn Xuân Phong - Giám đốc Trí tuệ nhân tạo, Công ty phần mềm FPT, theo dõi các cuộc thảo luận ở hội nghị thượng đỉnh đầu tiên về trí tuệ nhân tạo, có thể thấy rằng, các nhà hoạch định chính sách đã đi xa hơn khi dành nhiều thời gian cảnh báo về những hệ thống siêu trí tuệ nhân tạo - Frontier AI. Đây có thể gọi là trí tuệ nhân tạo tiên phong, là cụm từ chỉ những hệ thống AI tối tân, mà một số chuyên gia cho rằng thông minh hơn con người, có thể thực hiện nhiều nhiệm vụ cùng một lúc và xử lý dữ liệu phi cấu trúc.

Bà Michelle Donelan - Bộ trưởng Công nghệ Anh - khẳng định, cần đến sức mạnh của tập thể trong việc phân tích những nguy cơ đến từ cái gọi là "Frontier AI" này bởi hiện tại, thế giới chưa hiểu đầy đủ về nó. Điều này đặc biệt khẩn cấp.

Hợp tác toàn cầu để đặt trí tuệ nhân tạo trong khuôn khổ an toàn - Ảnh 2.

Trí tuệ nhân tạo tiên phong được cho là thông minh hơn con người, có thể thực hiện nhiều nhiệm vụ cùng một lúc và xử lý dữ liệu phi cấu trúc

Frontier AI, hay trí tuệ nhân tạo tiên phong, là viết tắt của các hệ thống thế hệ mới nhất và mạnh mẽ nhất, đưa công nghệ đạt đến giới hạn mới mà con người còn chưa khám phát hết. Hệ thống trí tuệ nhân tạo tiên phong cung cấp cho chúng ta những hiểu biết sâu sắc mà chúng ta chưa biết đến, cung cấp câu trả lời mà chúng ta không thể nghĩ ra.

Chẳng hạn như hệ thống máy tính thông minh có khả năng nhận ra sự giả mạo nghệ thuật tốt hơn các chuyên gia. Một hệ thống khác có thể nhận ra một số bệnh tật sớm hơn trước khi bệnh nhân có những triệu chứng cụ thể. Thậm chí, trí tuệ nhân tạo tiên phong cũng có thể dự đoán hành vi bỏ phiếu của cử tri dựa trên phân tích những gì họ đọc trên Internet.

Với bản chất học máy và thu thập thông tin tự động, trí tuệ nhân tạo ngày càng tự hoàn thiện. Theo các nhà khoa học thuộc lực lượng đặc nhiệm trí tuệ nhân tạo của Anh, với lộ trình hiện tại, chỉ nửa năm nữa, các mô hình trí tuệ nhân tạo sẽ có bước nhảy vọt đáng kể về năng lực, vượt xa các công nghệ tiên tiến nhất mà thế giới chứng kiến năm 2023.

Như tỷ phú Elon Musk đã cảnh báo, khi các hệ thống trí tuệ nhân tạo tiên phong trở nên có năng lực hơn, chúng có thể làm tăng đáng kể rủi ro.

Hợp tác toàn cầu để đặt trí tuệ nhân tạo trong khuôn khổ an toàn - Ảnh 3.

Phó Tổng thống Mỹ Kamala Harris (Ảnh: AP)

Phó Tổng thống Mỹ Kamala Harris cho rằng: "Trí tuệ nhân tạo không chỉ có tiềm năng mang lại những điều tốt đẹp, nó cũng có khả năng gây ra tác hại sâu sắc. Từ các cuộc tấn công mạng do AI hỗ trợ ở quy mô vượt xa mọi thứ chúng ta từng thấy trước đây cho đến các vũ khí sinh học do AI chế tạo có thể gây nguy hiểm cho cuộc sống của hàng triệu người".

Thế giới cần theo kịp những diễn biến đó. Đây là một tình huống khó khăn cả với các nhà phát triển trí tuệ nhân tạo, đó là với khả năng tự học của máy thì không chắc về sau ai hoặc cái gì sẽ kiểm soát toàn bộ hệ thống mà chính họ phát triển ra.

Ông Yoshua Bengio - nhà khoa học trí tuệ nhân tạo, người được mệnh danh là "Bố già của AI" - nhận định: "Một thông điệp mà tôi nghĩ cần được lắng nghe và thảo luận nhiều hơn là giới hạn của khoa học liên quan đến sự an toàn của các hệ thống AI. Ngay bây giờ, chúng tôi không biết làm thế nào để xây dựng một hệ thống AI sẽ hoạt động đúng như dự định và chúng tôi không biết liệu có thể tin tưởng các hệ thống có an toàn hay không. Đây là một vấn đề lớn".

Những vấn đề về kiểm soát trí tuệ nhân tạo này chỉ là bước khởi đầu của các cuộc thảo luận và điều cần thiết là phải tiếp tục duy trì động lực này trong tương lai. Hàn Quốc sẽ đồng tổ chức một hội nghị thượng đỉnh trực tuyến về trí tuệ nhân tạo trong 6 tháng tới, trong khi Pháp đồng ý tổ chức hội nghị thượng đỉnh về an toàn AI trực tiếp sau một năm nữa.

Trí tuệ nhân tạo "có trách nhiệm"

Từ giữa tháng 8, biện pháp tạm thời quản lý AI tạo sinh đã có hiệu lực tại Trung Quốc. Với 24 hướng dẫn, Trung Quốc yêu cầu nhà cung cấp nền tảng phải đăng ký dịch vụ và đánh giá an ninh trước khi đưa ra thị trường; bắt buộc dán nhãn trên nội dung do AI tạo ra như ảnh, video; phải dùng dữ liệu hợp pháp để đào tạo mô hình AI và cung cấp dữ liệu đó khi cơ quan chức năng cần; không được mang các nội dung kích động lật đổ chính quyền và chế độ, không được xâm phạm quyền riêng tư… Các đơn vị cung cấp dịch vụ phải xóa bỏ những nội dung bất hợp pháp và ngăn chặn việc phát tán. Người vi phạm sẽ bị xử phạt, thậm chí có thể bị truy cứu hình sự.

Chính những quy định này là lằn ranh đỏ và định hướng cho sự phát triển trong khuôn khổ. Nó cũng là cơ sở để Trung Quốc tham gia rộng hơn quản lý AI toàn cầu.

Vấn đề đau đầu của Trung Quốc là làm thế nào đảm bảo duy trì kiểm soát, kiểm duyệt nội dung thông tin nhưng phải tạo không gian đủ rộng để doanh nghiệp phát triển. Ở Trung Quốc, ngoài kiểm duyệt thông tin gắt gao thì nội dung còn phải phù hợp định hướng, thuần phong mỹ tục.

Giám sát và quản lý trí tuệ nhân tạo tại Việt Nam

Tại Việt Nam, trí tuệ nhân tạo cũng ngày càng được ứng dụng mạnh mẽ trong nhiều lĩnh vực góp phần thúc đẩy mạnh mẽ sự phát triển kinh tế - xã hội. Với tham vọng trở thành một trung tâm về trí tuệ nhân tạo của ASEAN vào năm 2030, Việt Nam cũng đang đặt ra yêu cầu cần có những khung quy định pháp lý để giám sát và quản lý chặt chẽ hơn nền tảng công nghệ này.

Deepfake là một công nghệ ứng dụng trí tuệ nhân tạo để tạo ra những sản phẩm âm thanh, hình ảnh làm giả người ngoài đời thực với độ chính xác cao. Thời gian qua, tại Việt Nam, nhiều đối tượng xấu đã sử dụng công nghệ này để thực hiện những cuộc gọi video lừa đảo. Đã có những nạn nhấn mất hàng chục, thậm chí cả trăm triệu đồng.

Hợp tác toàn cầu để đặt trí tuệ nhân tạo trong khuôn khổ an toàn - Ảnh 4.

Nhiều đối tượng xấu đã sử dụng công nghệ Deepfake để thực hiện những cuộc gọi video lừa đảo

Tiến sĩ Đinh Viết Sang - Phó Giám đốc Trung tâm Nghiên cứu quốc tế về trí tuệ nhân tạo, Đại học Bách khoa Hà Nội - cho biết: "Nếu chúng ta đăng tải và video của cá nhân hoặc người thân của mình lên mạng xã hội thì đấy sẽ là nguồn đầu vào để kẻ xấu có thể lợi dụng để tạo ra những video và hình ảnh giả, sau đó quay trở lại đánh lừa chúng ta".

Sử dụng trí tuệ nhân tạo để khai thác dữ liệu cá nhân đang ngày càng trở nên phổ biến. Việc Chính phủ ban hình Nghị định về bảo vệ dữ liệu cá nhân đã tạo hành lang pháp lý nhằm bảo vệ dữ liệu cá nhân tại Việt Nam một cách hiệu quả, giảm thiểu tối đa những nguy cơ và hệ quả của các hành vi xâm phạm dữ liệu cá nhân.

Hiện nay, ngày càng có nhiều người nhận thức được rằng, cần có một cách tiếp cận có trách nhiệm đối với AI để đảm bảo việc sử dụng các công nghệ này một cách an toàn, có lợi và hợp lý. Các giải pháp về pháp lý, công nghệ sẽ giải quyết hiệu quả, tối ưu hơn các vấn đề pháp lý truyền thống. Để thích ứng, hệ thống pháp luật cần tạo nền tảng để điều chỉnh kịp thời những mô hình kinh doanh, công nghệ mới xuất hiện.

Ông Lê Nguyễn Trường Giang - Viện trưởng Viện Chiến lược Chuyển đổi số, Hội truyền thông số Việt Nam - cho rằng: "AI chỉ là phương tiện thôi. Chúng ta không nên nghĩ là chúng ta kiểm soát phương tiện mà chúng ta chỉ đặt ra các tiêu chuẩn cho các phương tiện. Vì vậy, muốn AI đi được đúng hướng, giảm thiểu những tác động tiêu cực của AI thì chúng ta phải đặt ra những tiêu chuẩn cho AI. Từ những tiêu chuẩn đó, AI sẽ tự điều chỉnh mình. Những công ty sử dụng công nghệ AI, những người muốn phát triển AI, thậm chí cả người dùng muốn dùng AI, họ sẽ phải dựa trên các tiêu chuẩn đó để tạo ra một sự đồng thuận chung".

Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 đã được Chính phủ ban hành cũng đề ra định hướng: "Xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến AI nhằm thúc đẩy nghiên cứu, ứng dụng AI vào cuộc sống", mục tiêu lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của các tổ chức, cá nhân.

Với sự phát triển như vũ bão của công nghệ hiện nay, rõ ràng là hành lang pháp lý luôn đi theo sau. Với những lĩnh vực mới và thay đổi không ngừng như trí tuệ nhân tạo thì càng khó kiểm soát. Nhưng càng khó thì càng phải kiểm soát bởi công nghệ là "con dao hai lưỡi", không kiểm soát sẽ làm người chơi "đứt tay". Hành lang pháp lý để quản lý rủi ro của trí tuệ nhân tạo mới là ở dạng sơ khởi ở nhiều quốc gia, trong đó có Việt Nam. Vì vậy, cần có sự hợp tác quốc tế để có thể học hỏi lẫn nhau, giúp vừa tận dụng được lợi ích mà lại chế ngự được các rủi ro của công nghệ này.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV OnlineVTVGo!

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước