Với các phiên bản AI nâng cấp, người dùng có quyền kiểm soát nhiều hơn đối với dữ liệu cá nhân

Tại sự kiện Google I/O mới đây, Google đã ra mắt Gemini 1.5 - mô hình trí tuệ nhân tạo (AI) với nhiều tính năng mới, gồm khả năng phân tích code, văn bản, đoạn ghi âm, video với thời lượng dài hơn so với phiên bản tiền nhiệm.

Phát hiện những từ ngữ đáng ngờ

Trong đó, Gemini 1.5 Pro dự kiến sẽ được đưa vào Gmail, Google Docs… trong thời gian tới, sẽ trở thành công cụ đa năng trong Workspace, giúp người dùng thu thập bất kỳ thông tin từ Drive. Mô hình AI khác là Gemini Live, giúp người dùng tương tác với điện thoại thông minh (smartphone) bằng giọng nói tự nhiên… Tại sự kiện lần này, Google gây chú ý khi đưa mô hình AI có tên Gemini Nano lên smartphone sử dụng hệ điều hành Android có tính năng phát hiện những từ ngữ đáng ngờ trong cuộc trò chuyện giúp người dùng cảnh giác các cuộc gọi lừa đảo. Hiện tại, Gemini Nano đã được tích hợp trên Pixel 8 Pro và dòng Galaxy S24.

Chia sẻ ý kiến trên mạng xã hội, người dùng kỳ vọng Gemini Nano sẽ dần trở nên phổ biến hơn trên các dòng Android trên thị trường. Tuy nhiên, một số người bày tỏ sự lo lắng về việc dữ liệu cuộc gọi có thể bị lộ nếu cấp quyền cho Google. Về vấn đề này, Google cho rằng dữ liệu cuộc gọi được bảo vệ, chỉ được lưu trên điện thoại của người dùng. Người dùng có thể tùy chỉnh bật/tắt tính năng cảnh báo cuộc gọi lừa đảo. Gemini Nano hoạt động độc lập, không kết nối internet và ngay cả Google hay bên thứ ba không thể truy cập.

Trước đó, Công ty OpenAI cũng đã công bố mô hình AI mới có tên GPT-4o, giúp sức mạnh của ChatGPT tăng gấp 5 lần. Theo đó, với việc tối ưu hóa các thuật toán và phương pháp huấn luyện, GPT-4o sẽ cung cấp các câu trả lời chính xác hơn và duy trì độ nhất quán cao trong các cuộc hội thoại dài. Giảm thiểu các lỗi phổ biến và nâng cao khả năng hiểu ngữ cảnh, giúp mô hình phản hồi chính xác hơn đối với các câu hỏi phức tạp… Open AI cho biết giao diện GPT-4o bảo đảm các tương tác và thông tin cá nhân giữa người dùng và AI được xử lý một cách an toàn. Meta - Công ty mẹ của Facebook và Instagram - thông báo sẽ ngừng phát triển nền tảng cho doanh nghiệp Workplace để tập trung phát triển các sản phẩm AI và vũ trụ ảo Metaverse. Theo giới công nghệ, các dự án AI của Meta trong thời gian sắp tới sẽ giúp người dùng trải nghiệm tốt hơn bằng nền tảng cá nhân hóa quảng cáo, đề xuất nội dung phù hợp, dịch thuật trực tiếp bằng nhiều ngôn ngữ … Đồng thời xây dựng các chính sách quyền riêng tư để bảo vệ thông tin người dùng.

Tại một sự kiện mới đây, Microsoft đã giới thiệu một tính năng mới có tên "Recall" - được công ty này gọi chung là AI Explorer. Theo đó, công cụ AI này sẽ được tích hợp trên máy tính Copilot Plus, giúp người dùng có thể theo dõi mọi thứ được thực hiện trên máy tính, từ duyệt web đến trò chuyện thoại, tạo lịch sử được lưu trữ trên máy tính mà người dùng có thể tìm kiếm khi họ cần ghi nhớ điều họ đã làm trước đó. Ngoài ra, Recall còn cung cấp dữ liệu theo dòng thời gian trực quan, cho phép người dùng dễ dàng cuộn qua và khám phá mọi hoạt động trên máy tính. Tính năng Live Captions đi kèm giúp người dùng tìm kiếm các cuộc họp trực tuyến và video, phiên âm và dịch lời nói một cách tiện lợi… Microsoft cam kết rằng Recall sẽ hoạt động riêng tư trên thiết bị nên dữ liệu người dùng sẽ bảo đảm an toàn. Người dùng có thể tạm dừng, dừng hoặc xóa nội dung đã chụp hoặc chọn loại trừ các ứng dụng hoặc trang web cụ thể…

 AI nâng cấp giúp phát hiện bất thường 第1张

Gemini 1.5pro trả lời câu hỏi của người dùng dưới dạng sơ đồ chỉ trong vài giâyẢnh AI: Lê Tỉnh

Nhắc nhở, cảnh báo người dùng

Theo chuyên gia bảo mật Phạm Đình Thắng, quá trình tương tác với người dùng đã làm tăng mức độ thông minh của AI. Do đó, mô hình AI sẽ liên tục thay đổi mạnh mẽ, tinh gọn hơn, tuy nhiên điều này cũng khiến gia tăng rủi ro đối với người dùng như việc giả dạng khuôn mặt (deepfake), giọng nói sẽ càng khó phát hiện vì độ chân thực rất cao.

Vì vậy, các hãng công nghệ như Google hay ChatGPT… phải chú trọng đến bảo vệ an toàn dữ liệu của người dùng. "Không thể đặt hết niềm tin vào cam kết bảo mật dữ liệu của các hãng công nghệ, người dùng cần bảo vệ bản thân mình trước. Không vào các trang web AI lạ, không rõ nguồn gốc vì tỉ lệ chứa mã độc rất cao. Không truy cập các thông tin không liên quan đến mình. Đồng thời, thường xuyên cập nhật tin tức về các thủ đoạn lừa đảo qua AI" - ông Thắng khuyến cáo. Trong khi đó, ông Huỳnh Trọng Thưa, chuyên gia an toàn thông tin, cho rằng khi sử dụng sản phẩm AI, người dùng không nên quá lo lắng về việc dữ liệu của mình vì việc thu nhập dữ liệu cá nhân của các hãng nhằm phân tích để đưa ra các cảnh báo, từ khóa phù hợp nhằm cá nhân hóa trải nghiệm. "Tỉ lệ lừa đảo sẽ giảm rất nhiều sau khi Google, OpenAI ứng dụng các mô hình mới. Sự cảnh báo lừa đảo là lời nhắc nhở mang tính mạnh mẽ khiến cho người dùng sẽ có điểm dừng trước lời mời ngon ngọt của đối tượng lừa đảo" - ông Thưa nói.

Theo các chuyên gia công nghệ, các hãng công nghệ có xu hướng mã hóa một cách hiện đại hơn để bảo vệ dữ liệu người dùng. Đồng thời, với các phiên bản nâng cấp, người dùng có quyền kiểm soát nhiều hơn đối với dữ liệu cá nhân, bao gồm khả năng quản lý, chỉnh sửa và xóa dữ liệu bằng việc đồng ý hay không đồng ý cho phép nền tảng sử dụng. 

Theo các chuyên gia, trước mối lo ngại việc lợi dụng các công cụ AI để lừa đảo, cơ quan quản lý cần cân nhắc kỹ về việc xây dựng những chính sách, cơ chế kiểm soát và quản lý linh hoạt hoạt động của các công cụ AI. Điều này tạo điều kiện để các ứng dụng AI phát triển bền vững và có trách nhiệm.