Trí tuệ nhân tạo là một trong những công nghệ tiên tiến nhất ngày càng được ứng dụng rộng rãi trên toàn cầu. Tuy nhiên, những nhà phát triển công nghệ khi xây dựng ứng dụng cần áp dụng những nguyên tắc tạo ra trí tuệ nhân tạo để đảm bảo tính đạo đức và xây dựng niềm tin. Tìm hiểu cụ thể hơn về lý do tại sao và những nguyên tắc phổ biến nhất toàn cầu trong bài viết này.

Đọc bài viết này để hiểu rõ:

  • Tổng quan về trí tuệ nhân tạo
  • 5 nguyên tắc tạo ra trí tuệ nhân tạo
  • Một số mặt trái khi ứng dụng trí tuệ nhân tạo
  • Tại sao phải áp dụng các nguyên tắc

Tổng quan về trí tuệ nhân tạo

Trí tuệ nhân tạo, hay Artificial Intelligence (AI), là một lĩnh vực trong khoa học máy tính, tập trung vào việc tạo ra các hệ thống máy tính có khả năng thực hiện các tác vụ tương tự như bộ não của con người. Công nghệ này được xây dựng dưới sự hỗ trợ của các nhánh như học máy (Machine Learning), học sâu (Deep Learning), hệ chuyên gia (Expert Systems), xử lý ngôn ngữ tự nhiên (Natural Language Processing – NLP), mạng nơ-ron (Neutron Network), v.v.

Những năm gần đây, trí tuệ nhân tạo đang ngày càng mở rộng tính ứng dụng vào nhiều lĩnh vực, giúp đời sống con người trở nên tốt hơn. Statista cũng đã báo cáo về quy mô thị trường trí tuệ nhân tạo là khoảng 200 tỷ đô la Mỹ vào năm 2023 và dự kiến sẽ tăng vọt lên hơn 1,8 nghìn tỷ đô la Mỹ vào năm 2030.

Đọc thêm: Trí tuệ nhân tạo là gì và đang thay đổi cuộc sống con người ra sao?

5 nguyên tắc tạo ra trí tuệ nhân tạo

Ứng dụng trí tuệ nhân tạo đã, đang, và sẽ mang lại cho nhiều lĩnh vực những lợi ích không tưởng về mặt nguồn lực lẫn quy trình làm việc, từ đó tạo cơ hội mở rộng quy mô và doanh thu. Tuy nhiên, có những nguyên tắc tạo ra trí tuệ nhân tạo buộc doanh nghiệp phải tuân thủ khi ứng dụng, bao gồm:

Sự công bằng và không thiên kiến

Quyền công bằng và không thiên kiến là nguyên tắc tạo ra trí tuệ nhân tạo quan trọng để đảm bảo mọi người dùng đều nhận được những lợi ích ngang bằng khi sử dụng.

UNESCO đã từng phản ánh về những kết quả sai lệch khi tìm kiếm thông tin trên hệ thống AI. Tất nhiên, không hẳn là lỗi của các công cụ tìm kiếm vì nó xử lý dữ liệu lớn và ưu tiên các kết quả có nhiều lượng truy cập nhất dựa trên tùy chọn và vị trí của người dùng. Tuy nhiên, điều này có thể được coi là một cách truyền bá “ngầm” của những nhận thức sai lệch và có thể dẫn đến những hậu quả khôn lường.

Hoặc ví dụ như, nếu bạn bị từ chối cho vay để mua nhà hoặc CV ứng tuyển công việc bị loại trong quá trình sàng lọc và lựa chọn được những hồ sơ ứng viên phù hợp với doanh nghiệp, bạn không thể khiếu nại với AI. Đây là một vấn đề công bằng.

Vậy, làm thế nào chúng ta có thể đảm bảo kết quả công bằng bằng và chính xác hơn? Người dùng có thể báo cáo kết quả sai lệch không?

Khi nhắc đến sự công bằng và không thiên kiến khi tạo ra trí tuệ nhân tạo, “gã khổng lồ” công nghệ Google, với mục tiêu là  cung cấp người dùng thông tin chính xác và chất lượng cao bằng cách sử dụng công nghệ AI, cam kết xem xét mọi khía cạnh của sự phát triển và sử dụng công nghệ AI, bao gồm chuẩn mực văn hoá, xã hội và pháp lý của từng quốc gia nơi mà công cụ hoạt động. Đồng thời đảm bảo rằng những lợi ích toàn cầu vượt qua những rủi ro tiềm ẩn một cách phi thương mại.

Người dùng có thể kỳ vọng về một năm 2024 với một thị trường AI mới xuất hiện, bao gồm các nhà công nghệ và dịch vụ sẽ tập trung hơn vào việc cung cấp các công cụ và framework đảm bảo sự phát triển và triển khai đạo đức của các hệ thống trí tuệ nhân tạo (AI).

Sự tin cậy và minh bạch

Trong công nghệ trí tuệ nhân tạo tồn tại một định nghĩa được gọi là hộp đen AI (black box AI). Black box AI là một hệ thống độc lập có thể đưa ra quyết định mà không cần giải thích cách thức đạt được những quyết định này.

Tuy nhiên cũng vì vậy mà làm dấy lên những tranh cãi xoay quanh về độ minh bạch trong các yếu tố ảnh hưởng đến quyết định.

Theo quy định luật hiện hành của Hoa Kỳ, các công ty không nhất thiết phải tiết lộ code hoặc tài liệu đào tạo mà họ sử dụng để xây dựng ứng dụng của mình. Tuy nhiên, một số công ty đứng sau các ứng dụng AI phổ biến vì đã sử dụng tác phẩm gốc làm dữ liệu đào tạo mà không xin phép và không ghi rõ nguồn là những người tạo ra những hình ảnh, từ ngữ và code đó. Điều này dẫn đến các vụ kiên liên hồi về vấn đề bản quyền giữa nghệ sĩ, nhà văn và kỹ sư phần mềm với các công ty tạo ra AI này. 

Các báo cáo như “Evoke Trust With Explainable AI” (Tạm dịch: Khơi dậy niềm tin với AI có thể giải thích) và “What Software Developers Don’t Know About Neural Networks Could Hurt Them” (Tạm dịch: Những điều mà các lập trình viên phần mềm không biết về mạng thần kinh có thể gây tổn hại cho họ) đã đưa ra những lập luận về độ chính xác của những quyết định mà AI đưa ra.

Người dùng cần biết về việc AI được sử dụng ở đâu và khi nào, cũng như hiểu được quy trình và cách thức hoạt động để đánh giá mức độ tin cậy của một hệ thống AI. Đặc biệt, nguyên tắc tạo ra trí tuệ nhân tạo này ngày càng được nhiều người quan tâm khi công nghệ này giờ đây đã trở thành một phần và có những ảnh hưởng nhất định tới đời sống con người.

Công ty phần mềm máy tính đa quốc gia của Mỹ, Adobe, khẳng định đã thử nghiệm nghiêm ngặt các tính năng và sản phẩm của công ty có áp dụng công nghệ AI, bao gồm kiểm thử tự động và dựa trên đánh giá từ người dùng. Từ đó giảm thiểu các thành kiến và tăng tính minh bạch để tăng niềm tin khách hàng.

Hay như Microsoft cũng đã đề xuất chiến lược xây dựng bảng dữ liệu cho các tập dữ liệu để giải quyết vấn đề thiếu hụt thông tin trong cộng đồng Machine Learning. Bằng cách này, họ hy vọng tạo điều kiện cho giao tiếp tốt hơn giữa người tạo và người sử dụng tập dữ liệu, đồng thời khuyến khích tính minh bạch và trách nhiệm giải trình trong cộng đồng máy học.

Trách nhiệm giải trình

Những người phát triển và triển khai hệ thống trí tuệ nhân tạo phải chịu trách nhiệm hoàn toàn về hoạt động của hệ thống đó. Các doanh nghiệp khi xây dựng hệ thống AI cần giải trình rõ ràng về tất cả các phiên bản AI, các quy trình mà chúng hỗ trợ, kết quả mà chúng tạo ra và tác động của những quy trình đó.

Đặc biệt, tất cả các thành viên, bao gồm cả các bên liên quan và cổ đông, trong tổ chức nên được đào tạo để hiểu cách sử dụng AI và cập nhật thường xuyên khi tăng hoặc giảm mức độ sử dụng hệ thống.

Để đảm bảo nguyên tắc tạo ra trí tuệ nhân tạo này, các doanh nghiệp cần hiểu hệ thống AI thường là kết quả của một chuỗi cung ứng phức tạp và sức ảnh hưởng của nó lên nhiều bên từ đối tác cung cấp dữ liệu, người gắn nhãn dữ liệu, v.v. Một khi hệ thống AI gặp sự cố, việc xác định người chịu trách nhiệm là điều cực kỳ quan trọng.

Chẳng hạn như Google. Công cụ tìm kiếm này cam kết sẽ thiết kế các hệ thống AI có khả năng tự động phản hồi và giải thích khi cần thiết. Các công nghệ AI của họ sẽ phải tuân thủ và được kiểm soát theo sự chỉ đạo của con người.

Bên cạnh đó, Microsoft cũng đã đưa ra chương trình AI Assurance Program nhằm đảm bảo rằng các ứng dụng AI triển khai trên nền tảng của họ tuân thủ các yêu cầu pháp lý và quy định. Họ hỗ trợ khách hàng trong việc giải quyết các thách thức về quy định, triển khai các framework quản lý rủi ro AI và thu thập phản hồi từ cộng đồng. Hơn nữa, họ cũng tích cực hợp tác với các cơ quan chính phủ để đưa ra các quy định về AI có hiệu quả và dễ dàng thích ứng.

Lợi ích xã hội 

Nhiều công ty giải pháp công nghệ và quốc gia đang xem xét việc sử dụng trí tuệ nhân tạo với niềm tin rằng nó sẽ mang lại lợi ích lớn hơn cho xã hội. Một ví dụ điển hình là ứng dụng AI để phát triển vắc xin chữa Covid-19.

Hiểu một cách đơn giản, nguyên tắc tạo ra trí tuệ nhân tạo này thiết kế những hệ thống mà ai cũng có thể dễ dàng tiếp cận và nhận được những quyền lợi như nhau, không phân biệt khuyết tật, chủng tộc, giới tính, định hướng hoặc sự đa dạng văn hóa. 

Google và Adobe là hai ví dụ điển hình. Google mở rộng phạm vi tiếp cận của các công nghệ AI mới, với niềm tin mang lại nhiều lợi ích toàn cầu có thể vượt qua những rủi ro tiềm ẩn. Tương tự, Adobe cung cấp cơ chế phản hồi để người dùng có thể báo cáo các kết quả không chính xác hoặc không đạt chất lượng mong muốn, đồng thời có khả năng khắc phục mọi vấn đề phát sinh.

Tuy nhiên, hai ‘gã khổng lồ’ công nghệ là CEO của OpenAI, Sam Altman, và CEO của Google DeepMind, Demis Hassabis, cũng đã từng cảnh báo về việc AI có thể được tạo ra với các mục đích nguy hiểm cho con người (ví dụ như chiến tranh hạt nhân và dịch bệnh).

Việc ứng dụng trí tuệ nhân tạo phải được tiếp tục đánh giá và cân nhắc một cách kỹ lưỡng, đồng thời phải tuân thủ các chuẩn mực văn hóa, xã hội và pháp lý. Điều này đảm bảo rằng AI sẽ tiếp tục phát triển trong một hình thức tích cực và mang lại lợi ích thực sự cho toàn cộng đồng.

Quyền riêng tư và bảo mật

Khi phân tích và xử lý lượng lớn dữ liệu để sử dụng và phát triển hệ thống AI chuyên dụng, việc tôn trọng quyền riêng tư của cá nhân là một nguyên tắc tạo ra trí tuệ nhân tạo cốt lõi. Sự ra đời của các quy định như GDPRCCPA là minh chứng cho sự can thiệp của pháp luật vào việc xây dựng các phần mềm AI. Nổi bật nhất phải kể đến những tranh cãi xoay quanh tính pháp lý của việc sử dụng công nghệ nhận dạng khuôn mặt.

Các hệ thống trí tuệ nhân tạo cần tuân thủ nguyên tắc bảo vệ quyền riêng tư của người dùng. Điều này đòi hỏi sự đảm bảo rằng dữ liệu cá nhân chỉ được thu thập và sử dụng khi có sự đồng ý từ người dùng. Hơn nữa, cần chắc chắn rằng những người có quyền truy cập vào dữ liệu này đã được đào tạo về quyền riêng tư.

Google và Microsoft cam kết thực hiện các nguyên tắc bảo mật này trong quá trình phát triển và triển khai công nghệ AI của họ. Điều này bao gồm việc tạo ra cơ hội cho người dùng tham gia vào quy trình phát triển, xây dựng các kiến trúc hạ tầng có biện pháp bảo vệ quyền riêng tư và cung cấp sự minh bạch và kiểm soát phù hợp.

Bên cạnh đó, Microsoft cũng đang tiên phong trong việc giúp cộng đồng bảo mật hiểu rõ hơn về các mối đe dọa mới từ các hoạt động tấn công được hỗ trợ bởi trí tuệ nhân tạo. Việc mở rộng chiến lược này phản ánh cam kết của họ trong việc đối phó với các mối đe dọa mạng đang ngày càng phát triển và sử dụng AI để bảo vệ chính họ cũng như cộng đồng người dùng.

Pháp luật quy định như thế nào về các nguyên tắc tạo ra trí tuệ nhân tạo?

Tại Việt Nam

Ngày 26/01/2021, Thủ tướng Chính phủ đã ký Quyết định số 127/QĐ-TTg ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030.

Chiến lược này nhấn mạnh sự cần thiết phải “Xây dựng hệ thống pháp luật và hành lang pháp lý liên quan đến trí tuệ nhân tạo”. Dựa vào cơ sở đó, Bộ Tư pháp đã nghiên cứu kinh nghiệm quốc tế về khung chính sách và pháp lý cho trí tuệ nhân tạo, và sẽ tiếp tục thực hiện các nghiên cứu khác trong thời gian tới.

Giờ đây, các doanh nghiệp Việt Nam cần quan tâm đến các biện pháp, chính sách thúc đẩy sản xuất và tiêu thụ các sản phẩm, những ứng dụng trí tuệ nhân tạo trong nước để thúc đẩy phát triển công nghệ này. Đồng thời, chính phủ Việt Nam cũng xem xét xây dựng hệ thống pháp luật quản lý trí tuệ nhân tạo chặt chẽ hơn, trong đó quy định mức độ rủi ro, độ tin cậy và những ảnh hưởng về mặt đạo đức.

Đọc thêm: Ngành trí tuệ nhân tạo là gì? Top 5+ nghề AI nổi bật tại Việt Nam

Tại Trung Quốc

Cơ quan quản lý mạng của Trung Quốc đã đưa ra đề xuất điều chỉnh các hệ thống AI tổng hợp như chatbot. Đề xuất này vừa bao gồm các điều khoản nhằm bảo vệ các giá trị dân chủ, như cấm phân biệt đối xử và yêu cầu trách nhiệm pháp lý đối với các nhà phát triển, vừa thể hiện mục đích củng cố quyền lực của chính quyền độc tài. Bằng cách nhấn mạnh những nghịch lý có trong đề xuất này, các nhà phát triển, nhà phân tích và chính phủ có thể học hỏi để xây dựng một khuôn khổ thực sự dân chủ cho AI.

Bảo vệ cá nhân và củng cố quyền kiểm soát của Nhà nước

Dự thảo quy định của Trung Quốc về AI nhằm bảo vệ cá nhân khỏi tổn hại tiềm tàng liên quan đến công nghệ AI. Những điều khoản này cấm phân biệt đối xử, yêu cầu tính minh bạch và các biện pháp giải trình.

Tuy nhiên, quy định cũng được thiết kế để tăng cường kiểm soát của nhà nước đối với công nghệ và thông tin. Chính phủ đòi hỏi nội dung AI phải phản ánh “Giá trị cốt lõi của xã hội chủ nghĩa” và cấm nội dung có thể làm suy yếu quyền lực nhà nước.

Sự đan xen giữa bảo vệ cá nhân và củng cố quyền lực nhà nước cho thấy tính độc đoán của phương pháp quản lý dưới nguyên tắc dân chủ bề mặt.

Các giá trị dân chủ vượt lên trên các nguyên tắc cấp cao

Dự thảo quy định của Trung Quốc nhấn mạnh các nguyên tắc như tính minh bạch, công bằng và quyền riêng tư, tuy nhiên, các quốc gia độc tài có thể áp dụng chúng để củng cố quyền lực của mình. Điều này cho thấy nhiều nguyên tắc quản lý AI không mang tính dân chủ.

Để thực sự áp dụng các giá trị dân chủ, cần phải có các cơ chế giám sát mạnh mẽ. Nếu không thực hiện và thực thi cẩn thận, chỉ riêng các nguyên tắc cấp cao là không đủ để đảm bảo rằng các hệ thống AI duy trì các lý tưởng dân chủ.

Cách tiếp cận của Trung Quốc trong cuộc cạnh tranh chiến lược về AI

Dự thảo quy định của Trung Quốc phản ánh lập trường mạnh mẽ trong việc kiểm soát rủi ro từ các hệ thống AI và các công ty công nghệ, ủng hộ quyền lực nhà nước hơn là sự tiếp cận tự do kinh doanh. Điều này thể hiện quan điểm chiến lược rằng phát triển AI cần phải được quản lý chặt chẽ để duy trì quyền lực nhà nước.

Tuy nhiên, việc đặt ra các điều khoản quá gay gắt có thể đặt ra thách thức đáng kể, lâu dần ảnh hưởng đến những lợi ích kinh tế khi triển khai các công nghệ AI mang lại. Cách tiếp cận này có phần đối lập với Mỹ. Quốc gia này không kiểm soát việc phát triển AI để duy trì sự thống trị về kinh tế và quân sự.

Thực hiện giá trị dân chủ trong quản lý AI

Quy định nhấn mạnh khoảng cách giữa hướng dẫn chính sách và thực tiễn. Để thúc đẩy hiệu quả các giá trị dân chủ trong AI, cần có các bước thực hiện rõ ràng, biện pháp giải trình trách nhiệm và sự minh bạch. Các quốc gia dân chủ có thể học hỏi từ đề xuất này, bằng cách đảm bảo rằng các quy định về AI bao gồm hướng dẫn chi tiết, cơ chế thực thi mạnh mẽ và quy trình minh bạch, cho phép công chúng giám sát và hỗ trợ thực sự cho các giá trị dân chủ.

Tại Hoa Kỳ

Hoa Kỳ là một trong những quốc gia ứng dụng chính sách phát triển mạnh mẽ nhất. Văn phòng Chính sách Khoa học & Công nghệ – OSTP (Office of Science and Technology Policy) của Nhà trắng đã BAN hành Dự luật quyền AI, tập trung vào đảm bảo rằng các hệ thống tự động được thiết kế, triển khai và sử dụng một cách bảo vệ công chúng và duy trì quyền lợi dân sự dựa trên năm nguyên tắc chính sau đây:

Hệ thống an toàn và hiệu quả

Các hệ thống AI phải được thiết kế để hoạt động an toàn và hiệu quả, giảm thiểu mọi rủi ro tiềm ẩn cho người dùng. Điều này bao gồm quy trình kiểm tra nghiêm ngặt để đảm bảo độ tin cậy và an toàn của các hệ thống này.

Bảo vệ chống phân biệt đối xử bằng thuật toán

Cần áp dụng các biện pháp để ngăn chặn sự phân biệt đối xử dựa trên chủng tộc, giới tính hoặc các đặc điểm được bảo vệ khác. Mục tiêu là đảm bảo rằng các hệ thống AI không góp phần vào việc duy trì hay gia tăng các thành kiến xã hội.

Quyền riêng tư dữ liệu

Các hệ thống AI phải tôn trọng quyền riêng tư của người dùng bằng cách bảo vệ và quản lý dữ liệu cá nhân một cách an toàn. Để thực hiện điều này, văn phòng yêu cầu các hệ thống phải triển khai các biện pháp bảo mật mạnh mẽ và cung cấp sự minh bạch rõ ràng về thu thập và sử dụng dữ liệu.

Thông báo và giải thích

Người dùng phải được thông báo khi tương tác với các hệ thống tự động. Doanh nghiệp xây dựng hệ thống AI cần cung cấp lời giải thích rõ ràng về cách các quyết định được đưa ra, nhằm đảm bảo sự minh bạch và trách nhiệm giải trình.

Các lựa chọn thay thế của con người, sự cân nhắc và dự phòng

Luôn luôn phải có các lựa chọn thay thế của con người trong các quá trình tương tác với hệ thống AI. Ngoài ra, cá nhân cần có quyền lựa chọn tương tác với người đại diện là con người và khiếu nại về các quyết định của hệ thống tự động. Hơn nữa, cần áp dụng các cơ chế dự phòng để xử lý các tình huống mà hệ thống AI gặp lỗi hoặc tạo ra kết quả không mong muốn.

Tại Châu Âu

Tháng 4 năm 2021, Liên minh Châu Âu đã ban hành các Luật AI nhằm đảm bảo rằng các hệ thống AI hoạt động trong EU là an toàn, minh bạch, có khả năng truy xuất, không phân biệt đối xử và thân thiện với môi trường. Đây là khung pháp lý toàn diện đầu tiên trên thế giới dành cho AI và được phân loại dựa trên mức độ rủi ro mà chúng gây ra:

Rủi ro không thể chấp nhận 

Các hệ thống AI đặt ra rủi ro không thể chấp nhận sẽ bị cấm, bao gồm:

  • Thao tác hành vi nhận thức, ví dụ như đồ chơi kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm.
  • Hệ thống tính điểm xã hội, phân loại con người dựa trên hành vi, tình trạng kinh tế xã hội hoặc đặc điểm cá nhân.
  • Nhận dạng và phân loại sinh trắc học, như nhận dạng khuôn mặt từ xa theo thời gian thực (ngoại trừ các cơ quan thực thi pháp luật trong các trường hợp nghiêm trọng).

Rủi ro cao 

Các hệ thống này ảnh hưởng đáng kể đến sự an toàn hoặc các quyền cơ bản, bao gồm:

  • Quản lý cơ sở hạ tầng quan trọng, giáo dục và đào tạo nghề.
  • Quản lý việc làm và người lao động, tiếp cận các dịch vụ công cộng và tư nhân thiết yếu.
  • Thực thi pháp luật, di cư, tị nạn và kiểm soát biên giới.

Ngoài ra, đạo luật này còn yêu cầu:

Yêu cầu về tính minh bạch

Đạo luật AI yêu cầu các biện pháp minh bạch và trách nhiệm giải trình:

  • Tiết lộ: Nội dung do AI tạo ra phải được đánh dấu rõ ràng.
  • Thiết kế mô hình: Các mô hình AI phải được thiết kế để ngăn chặn việc tạo ra nội dung bất hợp pháp.
  • Tuân thủ bản quyền: Nhà cung cấp phải xuất bản bản tóm tắt dữ liệu có bản quyền được sử dụng để đào tạo các mô hình AI.

Hỗ trợ đổi mới

  • Môi trường thử nghiệm: Chính quyền quốc gia phải cung cấp môi trường thử nghiệm cho các công ty khởi nghiệp và doanh nghiệp vừa và nhỏ để phát triển các mô hình AI trong điều kiện thực tế.
  • Khung thời gian tuân thủ: Thiết lập các mốc thời gian khác nhau để tuân thủ dựa trên mức độ rủi ro của hệ thống AI, cho phép các hệ thống có rủi ro cao có thêm thời gian để đáp ứng yêu cầu.

Tiến độ thực hiện

  • Cấm đối với rủi ro không thể chấp nhận: Áp dụng sau sáu tháng từ khi Đạo luật có hiệu lực.
  • Quy tắc thực hành: Áp dụng sau chín tháng từ khi Đạo luật có hiệu lực.
  • Quy tắc minh bạch: Đối với AI có mục đích chung, áp dụng sau mười hai tháng từ khi Đạo luật có hiệu lực.
  • Hệ thống có rủi ro cao: Các nghĩa vụ sẽ được áp dụng sau ba mươi sáu tháng từ khi Đạo luật có hiệu lực.

Những điều khoản này thể hiện cam kết của Liên minh Châu Âu đối với việc phát triển và sử dụng công nghệ AI một cách có trách nhiệm, nhằm bảo vệ các giá trị cơ bản và quyền lợi của công dân trong môi trường kỹ thuật số ngày càng phát triển.

Một số mặt trái khi ứng dụng trí tuệ nhân tạo

Việc áp dụng trí tuệ nhân tạo (AI) mang lại nhiều lợi ích, nhưng cũng đi kèm với nhược điểm, như chi phí triển khai và suy thoái theo thời gian. Cụ thể:

  • Thiếu minh bạch: Hệ thống AI được đào tạo phức tạp, dữ liệu được huấn luyện, gây khó khăn trong việc hiểu, kiểm soát và tin tưởng vào các quyết định đưa ra bởi AI.
  • Quá phụ thuộc vào công nghệ: Sự phụ thuộc vào AI sẽ dẫn đến tình trạng giảm khả năng ra quyết định độc lập, thụ động trong xử lý các tình huống phức tạp.
  • Deepfake: Công nghệ deepfake sử dụng AI để tạo ra video hoặc hình ảnh giả mạo trông rất chân thực, có thể được sử dụng để lừa đảo, ảnh hưởng tới uy tín cá nhân và xã hội.
  • Chi phí triển khai: Một trong những thách thức lớn nhất của việc triển khai AI là chi phí. Tùy thuộc vào mục đích sử dụng, chi phí để xây dựng hệ thống dao động từ 20,000 USD đến hàng triệu USD. Mặc dù đây là khoản đầu tư có thể giúp tối ưu hóa quy trình làm việc, nhưng nó lại áp lực đối với nhiều tổ chức từ những bước triển khai đầu.
  • Suy thoái: Cũng giống như máy móc, AI có thể suy giảm theo thời gian. Nếu không được bảo trì và cập nhật thường xuyên, nó sẽ trở nên lỗi thời và không hiệu quả.
  • Giảm việc làm của con người: AI có thể làm giảm số lượng việc làm hiện có bởi khả năng xử lý nhiệm vụ lặp đi lặp lại. Điều này đặt ra thách thức về việc đào tạo lại và sáng tạo việc làm mới cho con người, đặc biệt là những nghề liên quan đến chăm sóc khách hàng. 
  • Vấn đề đạo đức: Sự phát triển nhanh chóng của AI đặt ra nhiều vấn đề đạo đức, bao gồm quyền riêng tư dữ liệu và đạo đức trong việc sử dụng công nghệ. Các trường hợp như việc sử dụng AI để tạo ra hình ảnh nghệ thuật mà không trả tiền cho các nghệ sĩ, ứng dụng Lensa AI là một ví dụ rõ ràng về vấn đề này. Hay việc một bài văn do AI viết, The Land of Machine Memories (Vùng đất của ký ức máy), đã vượt qua gần 200 tác phẩm giành giải thưởng văn học trong cuộc thi tiểu thuyết khoa học viễn tưởng tại Giang Tô lần thứ 5. 

Tại sao phải áp dụng các nguyên tắc tạo ra trí tuệ nhân tạo?

Việc áp dụng nguyên tắc tạo ra trí tuệ nhân tạo là rất quan trọng vì khi AI được sử dụng để mô phỏng hoặc thay thế trí thông minh của con người, những vấn đề đạo đức của các công nghệ cũng cần phải được lưu ý đến.

Ví dụ như, nếu không tuân thủ chính xác hoặc có những thiên kiến không công bằng xuất hiện trong quá trình tạo ra phần mềm AI sẽ có thể dẫn đến những hậu quả nghiêm trọng, đặc biệt là đối với những nhóm ít được đại diện hoặc bị loại trừ trong xã hội.

Google đã nhấn mạnh rằng, mặc dù tin tưởng vào tiềm năng của AI, nhưng họ cũng nhận ra công nghệ tiên tiến cũng mang theo những thách thức quan trọng cần phải giải quyết một cách tỉ mỉ và chắc chắn. Các nguyên tắc AI mà Google công khai đã phần nào chứng minh việc công cụ này đã phát triển công nghệ AI một cách có trách nhiệm và cố gắng thiết lập các lĩnh vực ứng dụng cụ thể mà họ sẽ thực hiện. Điều này giúp giảm thiểu rủi ro và đảm bảo rằng công nghệ AI được sử dụng một cách có ý thức và đạo đức.

Đọc thêm: Top lĩnh vực và xu hướng ứng dụng trí tuệ nhân tạo nổi bật 2025

Tổng kết

Các nguyên tắc tạo ra trí tuệ nhân tạo cần được tuân thủ một cách chuẩn xác và nghiêm ngặt để tạo ra một môi trường ứng dụng AI an toàn cho cộng đồng người dùng. Không chỉ là những ‘gã khổng lồ’ công nghệ như Microsofts, Adobe, hay Google mới cần đảm bảo làm theo nguyên tắc, mà ngay cả những doanh nghiệp hay cá nhân ở mọi quy mô đều phải xây dựng một hệ thống đáng tin cậy, tính bảo mật cao, có trách nhiệm giải trình, có đạo đức xã hội, và đặc biệt là công bằng.