Nhìn lại thế giới 2023: Trí tuệ nhân tạo vì con người
Quốc tế 30/12/2023 08:29
Dù AI không phải khái niệm mới, mà đã được biết đến từ những năm 1970, song sự khác nhau chủ yếu giữa AI truyền thống và AI tạo sinh (thế hệ mới) nằm ở khả năng và ứng dụng của chúng. Các hệ thống AI truyền thống chủ yếu được sử dụng để phân tích dữ liệu và đưa ra dự đoán, trong khi AI tạo sinh tiến thêm một bước bằng cách tạo ra dữ liệu mới tương tự dữ liệu đã được đào tạo. Sự ra đời của mô hình GPT (do OpenAI phát triển) cùng một loạt phiên bản sau đó và mới đây nhất là Gemini (của Google DeepMind) là minh chứng rõ nét nhất cho thấy thế giới sẽ bắt đầu một kỉ nguyên mới của AI hóa tri thức. Giới chuyên gia nhận định ứng dụng ChatGPT, Gemini hay AI nói chung đang là xu hướng không thể đảo ngược của thế giới bởi AI góp phần nâng cao năng suất, hiệu quả công việc, học tập, đáp ứng sự phát triển xã hội, phục vụ cuộc sống con người tốt hơn.
Trí tuệ nhân tạo (AI). |
Giữa năm 2023, Giám đốc điều hành (CEO) của các công ty AI hàng đầu thế giới cùng hàng trăm nhà nghiên cứu và chuyên gia đã cùng kí vào tuyên bố, nhấn mạnh rằng việc giảm thiểu nguy cơ từ AI phải là ưu tiên toàn cầu, đồng thời ví hành động này có tính cấp bách như việc ngăn chặn cuộc chiến tranh hạt nhân. Theo bà Jen Easterly - Giám đốc Cơ quan An ninh mạng và An ninh cơ sở hạ tầng Mỹ, những tác động tiềm ẩn từ sự phát triển nhanh chóng của AI đồng nghĩa với việc các biện pháp bảo vệ cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lí hậu kì.
Liên minh châu Âu (EU) đi tiên phong với các cuộc thảo luận nhằm xây dựng quy định pháp lí toàn diện đầu tiên trên thế giới về sử dụng AI một cách an toàn, công bằng, bảo đảm các quyền cơ bản của con người, cũng như tạo cơ sở để các doanh nghiệp có thể tiếp tục phát triển dựa trên công nghệ này.
Hội nghị thượng đỉnh toàn cầu đầu tiên về an toàn AI được tổ chức tại Anh đã nhất trí Tuyên bố Bletchley với chữ kí của đại diện 27 quốc gia (trong đó có những nước hàng đầu về phát triển và ứng dụng AI như Mỹ và Trung Quốc) cùng EU, với 5 mục tiêu bao trùm hướng tới phát huy tinh thần đồng thuận và trách nhiệm chung liên quan những rủi ro, cơ hội và tiến trình thúc đẩy hợp tác quốc tế trong bảo đảm sử dụng và nghiên cứu AI an toàn.
Nhóm các nước công nghiệp phát triển (G7) đã công bố bộ quy tắc quốc tế toàn diện đầu tiên về hệ thống AI tiên tiến, trong đó đưa ra nhiều khuyến nghị để không chỉ các nhà phát triển mà cả người dùng bình dân cũng có thể giảm thiểu rủi ro do công nghệ này mang lại.
Liên Hợp Quốc (LHQ) cũng công bố thành lập Ban cố vấn AI, với 39 thành viên là các giám đốc công ty, quan chức chính phủ và các học giả, có nhiệm vụ đưa ra hướng quản lí AI ở tầm quốc tế. Ở quy mô quốc gia, chính phủ nhiều nước cũng đang nỗ lực quản lí công nghệ đang phát triển "quá nhanh nhưng tiềm ẩn nhiều mối nguy hiểm" này.
Mỹ - quốc gia đang dẫn đầu về công nghệ AI - cũng thành lập một viện tương tự nhằm đánh giá mức độ an toàn của các hệ thống AI và hướng dẫn quản lí các vấn đề phát sinh liên quan. Trung Quốc công bố “Sáng kiến quản trị AI toàn cầu”, đưa ra một số quy định tạm thời đối với dịch vụ AI tạo sinh, đóng vai trò hướng dẫn về cách quản lí công nghệ này trong lúc chờ đợi một bộ luật chính thức về AI đang trong quá trình soạn thảo.
Hơn 50 tập đoàn và tổ chức nghiên cứu như Meta, IBM, Intel, Sony, Dell, Cơ quan Hàng không và Vũ trụ Mỹ (NASA)... đã cùng thành lập Liên minh AI nguồn mở nhằm bảo đảm một phương thức hợp tác cởi mở và minh bạch hơn trong việc phát triển công nghệ này. Việc thành lập liên minh trên được xem là bước tiến quan trọng, hướng tới tương lai an toàn hơn trong ứng dụng AI, thúc đẩy sự cân bằng giữa đổi mới và các tiêu chuẩn đạo đức trong một lĩnh vực đang phát triển nhanh, đầy tiềm năng song cũng ẩn chứa những hiểm họa khôn lường.
Theo giới chuyên gia, đến năm 2028, giá trị thị trường AI có thể vượt ngưỡng 1.000 tỉ USD, đồng nghĩa rằng việc xây dựng hành lang pháp lí nhằm kiểm soát và ngăn ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết…