Các quốc gia lớn trên thế giới đang quản lý AI bằng cách nào?

Admin
(SHTT) - Các cơ quan quản lý và các công ty công nghệ đã lên tiếng bày tỏ sự cần thiết phải kiểm soát (trí tuệ nhân tạo (AI), nhưng ý tưởng về cách quản lý mô hình AI lại có sự khác biệt lớn tùy theo khu vực...
tri-tue-nhan-tao-ai-2-3436

 

Hồi tháng 5, hàng trăm nhân vật hàng đầu về trí tuệ nhân tạo đã đưa ra một tuyên bố chung về công nghệ AI, trong đó có những lo ngại về rủi ro của AI sáng tạo, một loại công nghệ có thể xử lý và tạo ra lượng dữ liệu khổng lồ. Tuyên bố được hàng trăm giám đốc điều hành và nhà khoa học ký vào, từ các công ty bao gồm OpenAI, DeepMind của Google, Anthropic và Microsoft, đã gây chú ý trên toàn cầu.

OpenAI phát hành ChatGPT đã tạo ra một cơn sốt phấn khích mạnh mẽ. Và sự cường điệu xung quanh công nghệ này cũng đã làm tăng nhận thức về mối nguy hiểm của nó: khả năng tạo ra và truyền bá thông tin sai lệch khi các cuộc bầu cử đến gần; khả năng thay thế hoặc chuyển đổi công việc, đặc biệt là trong các ngành công nghiệp sáng tạo; nguy cơ nó trở nên thông minh hơn và thay thế con người.

Các quốc gia vẫn chưa thống nhất về cách kiểm soát AI

Các cơ quan quản lý và các công ty công nghệ đã lớn tiếng bày tỏ sự cần thiết phải kiểm soát AI, nhưng ý tưởng về cách quản lý mô hình AI và các công ty tạo ra chúng lại có sự khác biệt lớn tùy theo khu vực.

EU đã soạn thảo các biện pháp cứng rắn đối với việc sử dụng AI nhằm đặt trách nhiệm lên các công ty công nghệ để đảm bảo mô hình của họ không vi phạm các quy tắc. EU đã hành động nhanh hơn nhiều so với Hoa Kỳ. Tại Hoa Kỳ, các nhà lập pháp vẫn đang chuẩn bị đánh giá về AI để xác định những yếu tố nào của công nghệ có thể cần phải tuân theo quy định mới và những gì có thể được điều chỉnh bởi luật hiện hành.

Trong khi đó, Vương quốc Anh đang cố gắng sử dụng vị trí mới của mình bên ngoài EU để tạo ra cơ chế linh hoạt hơn nhằm điều chỉnh các ứng dụng AI theo ngành thay vì theo phần mềm làm nền tảng cho chúng. Cả hai cách tiếp cận của Mỹ và Anh đều được cho là sẽ ủng hộ công nghệ hơn là chỉ trích công nghệ.

Tuy nhiên, Trung Quốc lại tiếp cận một cách quản lý AI khác. Những cách tiếp cận cực kỳ khác nhau này có nguy cơ khiến ngành AI rơi vào tình trạng quan liêu, vì chính quyền địa phương phải liên kết với các quốc gia khác để công nghệ - vốn không bị giới hạn bởi biên giới - có thể được kiểm soát hoàn toàn.

Một số quốc gia đang cố gắng phối hợp một cách tiếp cận chung. Vào tháng 5, các nhà lãnh đạo của các quốc gia G7 đã ủy nhiệm một nhóm làm việc nhằm hài hòa các cơ chế quản lý được gọi là Hiroshima AI Process. Cơ chế này muốn đảm bảo luật pháp có thể tương tác giữa các nước thành viên. Trong khi đó, Vương quốc Anh sẽ tổ chức hội nghị thượng đỉnh AI toàn cầu vào tháng 11 để thảo luận về cách thức phối hợp quốc tế về quy định có thể giảm thiểu rủi ro.

Nhưng mỗi khu vực đều có những ý tưởng cố định riêng về cách điều chỉnh AI tốt nhất – và các chuyên gia cảnh báo rằng, khi công nghệ này nhanh chóng được sử dụng rộng rãi thì thời gian để đạt được sự đồng thuận không còn nhiều.

Vào tháng 7, OECD đã cảnh báo những ngành nghề có nguy cơ bị AI thay thế cao nhất sẽ là những công việc lao động trí óc, tay nghề cao, chiếm khoảng 27% việc làm trên khắp các nền kinh tế thành viên. Báo cáo của tổ chức này nhấn mạnh “nhu cầu khẩn cấp phải hành động” và phối hợp ứng phó để “tránh một cuộc chạy đua xuống đáy”.

Giáo sư David Leslie của Viện Alan Turing, viện quốc gia về khoa học dữ liệu và AI của Vương quốc Anh cho biết: “Chúng ta đang ở thời điểm mà [quy định] không phải là một thứ xa xỉ. Ở đây cần phải có hành động quốc tế phối hợp hơn vì hậu quả của việc lan rộng AI tạo ra không phải mang tính quốc gia mà mang tính toàn cầu”.

EU dự kiến sẽ ra đạo luật AI đầu tiên trên thế giới vào cuối năm nay

Đặc biệt, EU là quốc gia đầu tiên thực hiện Đạo luật AI của mình, dự kiến sẽ được thông qua hoàn toàn vào cuối năm nay.

Động thái này có thể được coi là một nỗ lực nhằm thiết lập khuôn mẫu cho các quốc gia khác noi theo, theo phong cách của Quy định bảo vệ dữ liệu chung Châu Âu, vốn đã cung cấp khuôn khổ cho luật bảo vệ dữ liệu trên toàn thế giới.

Công việc xây dựng luật AI đã bắt đầu từ vài năm trước, khi các nhà hoạch định chính sách mong muốn hạn chế việc sử dụng công nghệ một cách liều lĩnh trong các ứng dụng như nhận dạng khuôn mặt. 

Các đề xuất đã khiến hơn 150 doanh nghiệp ký một lá thư gửi Ủy ban Châu Âu, quốc hội và các quốc gia thành viên vào tháng 6, cảnh báo các đề xuất này có thể “gây nguy hiểm cho khả năng cạnh tranh của Châu Âu”.

Sam Altman, giám đốc điều hành của OpenAI, nói riêng với các phóng viên vào tháng 5: “Chúng tôi sẽ cố gắng tuân thủ, nhưng nếu không thể tuân thủ, chúng tôi sẽ ngừng hoạt động”. Sau đó, ông đã rút lại quyết định, viết trên Twitter rằng công ty không có kế hoạch rời khỏi châu Âu.

Peter Schwartz, phó chủ tịch cấp cao về hoạch định chiến lược của công ty phần mềm Salesforce, phát biểu với tư cách cá nhân, cũng cảnh báo rằng cách tiếp cận này có thể tác động đến cách một số công ty Mỹ khác hoạt động trong khu vực.

Tuy nhiên, chính phủ vẫn chưa phản hồi về hoạt động tham vấn hoặc ban hành hướng dẫn thực hiện cho các cơ quan quản lý ngành khác nhau, vì vậy có thể phải mất nhiều năm trước khi bất kỳ quy định nào thực sự có hiệu lực.

w020190722589883245257-15692906256681976192157

 

Cách tiếp cận hoàn toàn khác biệt của Hoa Kỳ và Trung Quốc

Trung Quốc đã đưa ra các quy định có mục tiêu cho nhiều công nghệ mới khác nhau, bao gồm các thuật toán đề xuất và AI tổng quát, đồng thời đang chuẩn bị soạn thảo luật AI quốc gia rộng hơn trong những năm tới.

Ưu tiên của Trung Quốc là kiểm soát thông tin thông qua quy định về AI, được phản ánh trong các quy định về AI mới nhất. 

Một số công ty công nghệ Trung Quốc, bao gồm Baidu và ByteDance, đã nhận được sự chấp thuận và tung ra các sản phẩm AI của họ ra công chúng hai tuần trước. 

Những hạn chế như vậy cũng sẽ áp dụng cho các công ty nước ngoài, khiến việc cung cấp dịch vụ AI tạo nội dung cho người tiêu dùng ở Trung Quốc trở nên khó khăn.

Trong khi đó, cho đến nay Hoa Kỳ vẫn để ngành tự điều chỉnh, với việc Microsoft, OpenAI, Google, Amazon và Meta ký một loạt cam kết tự nguyện tại Nhà Trắng vào tháng 7.

Các cam kết bao gồm thử nghiệm nội bộ và bên ngoài các hệ thống AI trước khi chúng được phát hành ra công chúng, giúp mọi người xác định nội dung do AI tạo ra và tăng tính minh bạch về khả năng cũng như hạn chế của hệ thống.

Theo VnECONOMY