1. Bối cảnh
Trí tuệ nhân tạo đã thể hiện tiềm năng phát triển mạnh mẽ trong những thập kỷ qua. Trong thập kỷ gần đây, lĩnh vực này đã bắt đầu mang lại kết quả đáng kể nhờ sự tiến bộ trong khoa học máy tính, robot và khả năng lập trình. Sự phát triển này chủ yếu tập trung vào khả năng kiểm soát công nghệ, điều chưa được chú ý trong giai đoạn đầu, như ứng dụng trong an ninh quốc gia. Từ năm 2010, các quốc gia nhận ra tầm quan trọng của trí tuệ nhân tạo và đầu tư mạnh vào lĩnh vực này, với các công ty công nghệ tư nhân là nhà đầu tư chính.
Trí tuệ nhân tạo (AI) được hiểu theo nhiều cách khác nhau. Theo nghĩa rộng, AI là một lĩnh vực nghiên cứu kết hợp nhiều chuyên ngành khác nhau, với những quy tắc cốt yếu như sau: đầu tiên, AI có khả năng thích nghi với điều kiện mới và tìm cách giải quyết những vấn đề mới phát sinh; kế đến, AI xử lý ngôn ngữ tin học để có thể giao tiếp bằng một ngôn ngữ cụ thể; tiếp theo, AI tự xử lý và trình bày thông tin nhằm lưu trữ dữ liệu mà hệ thống biết; nó còn tự động suy luận để sử dụng thông tin đã lưu để trả lời câu hỏi và đưa ra kết luận mới; cùng với đó, AI có khả năng nhận thức kiến thức mới và tự động hóa để xử lý những kiến thức này.
Theo nghĩa hẹp, trí tuệ nhân tạo là các thuật toán được xây dựng với mục đích cụ thể để giải quyết một vấn đề nhất định, và nó chỉ là phần mềm, toán học, mã code trong các thuật toán nhằm đưa ra quyết định dựa trên dữ liệu nhằm thực hiện một nhiệm vụ xác định. AI hoạt động như một hệ thống tự học, thu thập thông tin từ bên ngoài để đưa ra quyết định. Quan trọng là, mặc dù AI có khả năng tìm kiếm mẫu và học hỏi như con người, nhưng nó không mang đến nhận thức logic của con người. Điều này phân biệt rõ ràng giữa robot và trí tuệ nhân tạo; robot thường thực hiện các nhiệm vụ lặp đi lặp lại, trong khi AI tham gia vào việc học hỏi và quyết định. Mỗi công cụ AI được thiết kế với chức năng và khả năng khác nhau, tác động đến hiệu quả trong các nhiệm vụ khác nhau. Một thuật toán có thể được tối ưu hóa để thực hiện học máy hoặc tầm nhìn máy tính, và việc sử dụng nhiều nguồn dữ liệu khác nhau có thể mang lại kết quả tốt hơn so với việc chỉ sử dụng một nguồn duy nhất.
Trong bối cảnh thảo luận về chính sách điều chỉnh trí tuệ nhân tạo (AI), AI nên được hiểu theo nghĩa hẹp. AI là một hệ thống tự học hỏi, có khả năng nhận thông tin từ môi trường bên ngoài và tự đưa ra quyết định. Một điểm đáng chú ý là người sáng tạo ra hệ thống AI không thể dự đoán chính xác những hành động mà AI sẽ thực hiện. Việc dự đoán này chính là yếu tố quan trọng trong việc xác định trách nhiệm pháp lý đối với các hành động của AI, để rõ ràng về nghĩa vụ và trách nhiệm trong những tình huống mà AI có thể gây ra hậu quả pháp lý để lại. Đặc điểm này đặt ra vấn đề về khả năng hành động độc lập của AI mà không phải chịu trách nhiệm.
Khi áp dụng AI vào các lĩnh vực có rủi ro cao, áp lực để thiết kế một khuôn khổ quy định phù hợp, đảm bảo trách nhiệm, công bằng và minh bạch ngày càng lớn. Mặc dù lĩnh vực này còn mới mẻ với nhiều quy chế chưa được hình thành, nhưng một số nhà làm chính sách đã bắt đầu quan tâm tới. Một số đề xuất đã xuất hiện, như việc áp dụng luật về động vật lên AI, nhưng chính đề xuất này ngay lập tức vấp phải phản đối vì không phù hợp với bản chất của AI. Một đề xuất khác là xem AI như một thực thể pháp lý, vì vậy pháp luật có thể linh hoạt trong việc trao quyền hoặc hạn chế quyền lợi cho các đối tượng khác. Tuy nhiên, các quy định về trí tuệ nhân tạo hiện còn sơ khai và cần được đầu tư, nghiên cứu thêm. Đối với việc tiếp cận quy định về AI, có thể tập trung vào các nhóm nhỏ để dễ dàng quản lý và điều chỉnh ban đầu.
Đầu tiên, quản trị đạo đức trong lĩnh vực trí tuệ nhân tạo (AI) chủ yếu xoay quanh các vấn đề như công bằng, minh bạch, quyền riêng tư, và sự phân bổ dịch vụ cùng hàng hóa. Ngoài ra, cũng cần xem xét đến ảnh hưởng của AI đối với nền kinh tế, chẳng hạn như việc mất việc làm do tự động hóa.
Thứ hai, khả năng giải thích là một yếu tố quan trọng để nâng cao tính công bằng, minh bạch và trách nhiệm của các thuật toán. Một ví dụ điển hình là khái niệm "quyền giải thích" – cho phép cá nhân được biết lý do đằng sau các quyết định của thuật toán, đặc biệt là những quyết định ảnh hưởng đến họ, như việc từ chối đơn vay. Tuy nhiên, quyền này hiện chưa được đảm bảo đầy đủ, và việc giải thích cách thức hoạt động của thuật toán cũng phải được cập nhật trong hệ thống AI.
Cuối cùng, kiểm toán đạo đức là một cơ chế được đề xuất để đánh giá các thuật toán phức tạp, nhằm phát hiện sai lệch và tác động tiêu cực. Ngoài ra, một số người cho rằng các khái niệm như công bằng, minh bạch và trách nhiệm là khó khăn và thiếu khả thi trong việc thực thi, vì chúng khó áp dụng vào dữ liệu và mã code. Điều này có thể gây nhầm lẫn cho các nhà nghiên cứu và các nhà hoạch định chính sách. Dù còn thiếu khung quy định pháp lý cụ thể cho AI, nhiều quốc gia vẫn đang đầu tư mạnh mẽ vào lĩnh vực này, tạo áp lực cho các nhà nghiên cứu và khoa học để phát triển những quy định phù hợp hơn với tính chất của AI.
2. Khái quát chính sách pháp luật Hàn Quốc điều chỉnh các lĩnh vực liên quan đến trí tuệ nhân tạo
2.1. Về chính sách đầu tư ngành công nghiệp trí tuệ nhân tạo
Vào năm 2016, tại Seoul, một trận đấu cờ vây đặc biệt đã diễn ra giữa Lee Se-dol, một kiện tướng cờ vây hàng đầu thế giới, và AlphaGo, một chương trình AI do Google phát triển. Kết quả cuối cùng là 4-1, với chiến thắng thuộc về AlphaGo. Sự kiện này đã khiến chính phủ Hàn Quốc bất ngờ và nhanh chóng nhận ra tầm quan trọng của trí tuệ nhân tạo (AI) trong thời đại hiện nay.
Ngay sau đó, Bộ Khoa học, Công nghệ, Thông tin và Kế hoạch Tương lai (MSIP) của Hàn Quốc đã xây dựng chiến lược phát triển công nghiệp AI. Trong báo cáo "Kế hoạch tổng thể trung và dài hạn về việc chuẩn bị cho xã hội thông tin thông minh", MSIP đã nhấn mạnh vai trò của AI và tác động của nó đối với lực lượng lao động cũng như nền kinh tế, môi trường sống và lối sống. AI được kỳ vọng sẽ mang lại cơ hội phát triển kinh tế, nâng cao an toàn và chất lượng cuộc sống cho con người. Kế hoạch này đặt ra các mục tiêu cụ thể như: (1) Thúc đẩy xã hội thông tin thông minh thông qua sự hợp tác giữa công và tư nhân, với vai trò chủ đạo thuộc về doanh nghiệp và công dân, còn chính phủ và giới nghiên cứu sẽ hỗ trợ; (2) Xây dựng một hệ thống chính sách cân bằng giữa công nghệ, công nghiệp và xã hội, hướng tới một xã hội nhân văn hơn; (3) Đảm bảo quyền tiếp cận thông tin và tài nguyên, nhằm tăng cường khả năng cạnh tranh công nghiệp; (4) Cải cách chính sách và mở rộng mạng lưới an ninh xã hội dựa trên sự đồng thuận xã hội.
Ngoài ra, kế hoạch cũng nhấn mạnh sự cần thiết của việc ban hành khung pháp lý và đạo đức cho AI, đồng thời đề xuất thành lập một hiệp hội hợp tác giữa tư nhân và nhà nước để giám sát, nghiên cứu và giảm thiểu rủi ro công nghệ.
Trong thực hiện chiến lược, khu vực tư nhân, đặc biệt là các công ty lớn như Samsung, NCSoft và Naver, đã tích cực đầu tư vào AI. Tuy nhiên, Hàn Quốc vẫn đối mặt với nhiều thách thức, bao gồm việc bảo vệ thông tin cá nhân và thiếu dữ liệu lớn để phát triển AI.
2.2. Về pháp luật quy định về trí tuệ nhân tạo
Đạo luật phát triển và thúc đẩy phân phối robot thông minh được ban hành vào năm 2008 với mục đích nâng cao chất lượng cuộc sống của người dân Hàn Quốc và thúc đẩy sự phát triển của nền kinh tế quốc gia thông qua việc xây dựng và thực hiện các chính sách phát triển bền vững trong lĩnh vực robot thông minh. Đạo luật này định nghĩa robot thông minh khác biệt so với khái niệm robot thông thường, dù chưa đầy đủ, và được xem là một phần của trí tuệ nhân tạo (AI). Theo định nghĩa, robot thông minh là một thiết bị cơ học có khả năng tự nhận biết môi trường xung quanh, nhận thức các điều kiện và đưa ra hành động của riêng mình.
Đạo luật bao gồm 8 chương, mỗi chương quy định về các khía cạnh khác nhau của việc phát triển và sử dụng robot thông minh:
Về điều khoản chung
Chương này bao gồm 4 điều luật, xác định mục tiêu, trách nhiệm của chính quyền trung ương và địa phương trong việc thúc đẩy ứng dụng AI, và mối quan hệ giữa đạo luật này với các đạo luật khác. Đáng chú ý là định nghĩa "robot thông minh" – thiết bị cơ học có khả năng tự động nhận biết và di chuyển trong môi trường. Ngoài ra, thuật ngữ "Điều lệ đạo đức robot thông minh" cũng được nêu rõ, chỉ ra quy tắc ứng xử dành cho những người tham gia phát triển, sản xuất và sử dụng robot thông minh, nhằm ngăn chặn những hậu quả tiêu cực có thể phát sinh từ sự phát triển của AI, chẳng hạn như việc phá vỡ trật tự xã hội. Điều lệ này cũng nhằm cải thiện cuộc sống con người.
Về kế hoạch phát triển cơ bản về robot thông minh
Chương này gồm 4 điều luật quy định về việc thiết lập kế hoạch phát triển AI. Chính phủ Hàn Quốc sẽ lập "kế hoạch phát triển cơ bản" mỗi năm năm một lần để đảm bảo sự phát triển và phân phối robot thông minh hiệu quả. Kế hoạch này bao gồm các mục tiêu trung và dài hạn, phương hướng phát triển và các vấn đề liên quan đến công nghệ và hạ tầng cho robot thông minh. Chính phủ cũng khuyến khích hợp tác quốc tế trong lĩnh vực này, thông qua việc thúc đẩy các hoạt động nghiên cứu, trao đổi thông tin và hợp tác quốc tế giữa các chính phủ, doanh nghiệp, trường đại học và viện nghiên cứu.
Về hỗ trợ phân phối robot thông minh
Chương này bao gồm 11 điều luật quy định về việc hỗ trợ phát triển và phân phối robot thông minh. Chính phủ Hàn Quốc ủy quyền cho một tổ chức độc lập để giám sát, đánh giá chất lượng và trao chứng chỉ cho các sản phẩm robot thông minh. Các chứng chỉ này phải công khai tên sản phẩm, tên và địa chỉ nhà sản xuất, cũng như lĩnh vực ứng dụng của robot. Nếu một sản phẩm robot không tuân thủ các tiêu chuẩn hoặc gặp sự cố trong quá trình hoạt động, chứng chỉ có thể bị đình chỉ hoặc sản phẩm bị ngừng phân phối. Bên cạnh đó, đạo luật cũng quy định về hỗ trợ cho các công ty đầu tư vào ngành công nghiệp robot thông minh và thúc đẩy xây dựng cơ sở hạ tầng giáo dục cho ngành này.
Về điều lệ đạo đức của robot
Chương này đề cập đến điều lệ đạo đức của robot thông minh, nhằm ngăn chặn những tác động tiêu cực từ sự phát triển của AI và robot. Điều lệ này bao gồm ba phần: tiêu chuẩn sản xuất, quyền và nghĩa vụ của người sử dụng và chủ sở hữu robot, và quyền và trách nhiệm của robot. Nhà sản xuất phải đảm bảo rằng robot không gây hại về thể chất hoặc tinh thần cho con người, cũng như bảo vệ thông tin cá nhân và dữ liệu liên quan. Chủ sở hữu robot có nghĩa vụ đảm bảo rằng robot của họ không gây ra nguy hiểm cho con người hoặc tài sản. Đáng chú ý, điều lệ cũng xem xét robot như một thực thể có quyền lợi và nghĩa vụ, trong đó robot không được gây hại cho con người và phải tuân theo mệnh lệnh của con người, trừ khi mệnh lệnh đó gây hại cho người khác.
Về sửa đổi khung pháp lý về xã hội thông tin thông minh
Cuộc Cách mạng công nghiệp 4.0 đã tạo ra những thay đổi sâu rộng đối với xã hội, kinh tế và công nghệ. Trước sự phát triển mạnh mẽ của AI, Hàn Quốc nhận ra sự cần thiết phải sửa đổi và ban hành các quy định pháp lý mới trong lĩnh vực này. Năm 2017, Hàn Quốc đã đề xuất sửa đổi Khung pháp luật về Thông tin quốc gia thành Khung pháp lý Xã hội thông tin thông minh, nhằm cập nhật các khái niệm liên quan đến AI và công nghệ thông tin thông minh. Điều này nhằm hướng dẫn việc áp dụng AI một cách có hệ thống trên phạm vi quốc gia.
Khung pháp luật mới này đặt ra các quy định về phát triển AI một cách bền vững, bao gồm việc bảo vệ nhân phẩm, an toàn và các giá trị phổ quát của con người. Đồng thời, nó đảm bảo rằng lợi ích từ AI phải được chia sẻ đồng đều cho mọi người, và các sản phẩm, dịch vụ liên quan đến AI phải được kiểm soát chặt chẽ để tránh rủi ro trong tình huống khẩn cấp. Khung pháp luật cũng yêu cầu các quyết định tự động của AI phải minh bạch và loại bỏ các định kiến xã hội.
Về đạo đức AI trong xã hội thông tin thông minh
Chương về đạo đức AI trong Khung pháp lý Xã hội thông tin thông minh nhấn mạnh tầm quan trọng của việc thảo luận về quyền và trách nhiệm của các bên liên quan trong quá trình phát triển AI. Các mục tiêu cụ thể bao gồm việc bảo vệ nhân phẩm, an toàn, chia sẻ lợi ích của AI một cách công bằng, và đảm bảo rằng các quyết định liên quan đến AI phải minh bạch và có trách nhiệm giải trình. Chương này cũng khuyến khích sự tham gia của cộng đồng vào các cuộc thảo luận công khai và xây dựng văn hóa hợp tác.
Cùng với đó, Cơ quan Xã hội Thông tin quốc gia Hàn Quốc đã ban hành các hướng dẫn về đạo đức AI, bao gồm các nguyên tắc cơ bản về tính minh bạch, trách nhiệm giải trình, khả năng kiểm soát và phòng ngừa rủi ro từ AI. Hướng dẫn này áp dụng cho tất cả các bên liên quan trong quá trình phát triển và sử dụng AI, nhằm đảm bảo rằng công nghệ này được áp dụng một cách có trách nhiệm và mang lại lợi ích tốt nhất cho xã hội.
Về thúc đẩy sự phát triển công nghệ thông minh
Nhìn chung, đạo luật này là một bước tiến quan trọng trong việc thúc đẩy sự phát triển của robot thông minh và AI tại Hàn Quốc, đồng thời tạo ra một khung pháp lý rõ ràng để quản lý và kiểm soát các rủi ro liên quan đến công nghệ mới. Các quy định về đạo đức và quyền lợi của robot không chỉ bảo vệ con người mà còn đặt nền móng cho việc phát triển các tiêu chuẩn pháp lý và xã hội trong tương lai.
3. Kết luận
Cuộc Cách mạng công nghiệp 4.0 đang thay đổi thế giới, với xu hướng tăng tỷ trọng kinh tế vào các sản phẩm công nghệ cao. Hàn Quốc, một quốc gia có nền công nghiệp phát triển, đi đầu trong lĩnh vực trí tuệ nhân tạo. Nước này đã sớm nghiên cứu và ban hành cơ chế pháp lý về AI, tiêu biểu là Đạo luật phát triển robot thông minh năm 2008 và Điều lệ đạo đức robot năm 2012. Việt Nam, một quốc gia đang phát triển, có thể học hỏi từ kinh nghiệm của Hàn Quốc để xây dựng khung pháp lý cho trí tuệ nhân tạo.