Khi người dùng đăng ký Facebook trên điện thoại, mạng xã hội này không chỉ cung cấp các tin tức cập nhật và hình ảnh mới nhất từ bạn bè và gia đình của họ. Chạy ngầm bên dưới ứng dụng, ứng dụng sử dụng con quay hồi chuyển của điện thoại để phát hiện các chuyển động tinh tế đến từ tay người dùng. Nó cũng ngầm đo tốc độ chạm vào màn hình và thậm chí nhìn cả góc độ mà điện thoại đang được giữ trên tay. Đây chỉ là một trong số nhiều cách mà Facebook đang sử dụng để xác minh rằng người dùng thực sự là con người chứ không phải một trong hàng chục triệu tài khoản ảo được tạo ra bởi máy tính ma (bot) đang cố gắng xâm nhập mạng xã hội này mỗi ngày.
Không chỉ riêng Facebook phải lo lắng về vấn đề này. Twitter mới đây cũng bắt đầu xóa hàng triệu tài khoản ảo, trong khi Google đang tìm cách phát hiện những kẻ lừa đảo và cung cấp nội dung độc hại trên YouTube. Động thái trên phần nào nhấn mạnh sự leo thang của cuộc chiến giữa các công ty công nghệ và các chương trình tự động, thứ có thể gây ra sự hỗn loạn chính trị như scandal bầu cử hay làm tổn hại tới sự tin tưởng của công chúng với các nền tảng mạng xã hội.
Công cụ đứng sau tất cả và đang được các hãng công nghệ lớn tin tưởng, là trí thông minh nhân tạo (AI).
Trong phiên điều trần trước Quốc hội Mỹ cũng như hội nghị các nhà phát triển gần đây, Mark Zuckerberg, Giám đốc điều hành Facebook đã liên tục chỉ ra rằng AI là một giải pháp cho những sai sót có thể xảy ra của mạng xã hội. Còn Google cũng chưa từng che giấu tham vọng muốn trở thành một công ty hàng đầu về AI, cũng như Twitter luôn muốn sử dụng công nghệ này để dập tắt sự tồn tại của những tài khoản ảo.
"Nó đã dần trở thành một phần cơ bản của cuộc sống hàng ngày", Michael Connor, Giám đốc điều hành của Open MIC, một tổ chức chuyên tư vấn cải thiện chiến lược quản trị tại các công ty lớn ở Mỹ, cho biết. "AI đang trở thành một phần trong cách chúng ta nghe nhạc, cách chúng ta xử lý các vấn đề y tế và cách chúng ta lái những chiếc xe của mình".
Giống như một phương thuốc chữa bách bệnh, AI đang được xem là thứ có thể sửa chữa tất cả các vấn đề nguy hại liên quan tới Internet. Bởi xét cho cùng, không một người hay một nhóm người nào có thể đối phó với "cơn lũ" dữ liệu đến từ hàng tỷ người dùng.
Facebook, Google và Twitter là ba công ty đang nỗ lực nhất trong việc sử dụng AI để quản lý việc lạm dụng dữ liệu trên quy mô lớn, đặc biệt để đối phó với vấn nạn tin tức giả mạo đang ngày càng phổ biến. Tuy nhiên, quá trình hướng dẫn AI biết nhận biết tin tức hay tài khoản thật giả cũng giống như việc dạy một đứa bé sơ sinh. Do đó, nó đôi khi cũng không tránh được việc phán đoán và đưa ra các quyết định sai lầm. Các sai lầm này lại thường khiến mọi người hoài nghi hơn là thông cảm.
Cuộc chiến của Facebook
CEO của Facebook, Mark Zuckerberg.
Trên mạng xã hội phổ biến nhất thế giới này, những kẻ tội phạm đang trở nên ngày một thông minh và hiểu biết hơn. Chúng sử dụng các bot, hoạt động dưới hình thức và quy mô như một tổ ong, khi tạo tài khoản trên Facebook bên cạnh việc sử dụng nhiều thủ thuật khác để đánh lừa hệ thống. Chúng sử dụng địa chỉ IP giả, làm chậm tốc độ đăng ký tài khoản cũng như một vài bằng chứng khác để trông giống như hành động của một con người.
Facebook đã dựa vào đội ngũ của riêng mình, cũng như các nguồn lực AI bên ngoài, để ngăn chặn các tài khoản giả mạo này. Một trong những tài nguyên đó là Unbotify, startup đến từ Israel, theo chia sẻ từ nguồn tin thân cận với cả hai công ty.
Theo Eran Magril, Phó chủ tịch của công ty này, Unbotify hoạt động bằng cách hiểu thị dữ liệu hành vi trên các thiết bị, chẳng hạn tốc độ di chuyển của điện thoại khi người dùng đăng ký một tài khoản. Thuật toán này dựa trên hàng nghìn thử nghiệm nhằm đo đạc thao tác, thói quen sử dụng và cử chỉ của người dùng. Bot có thể giả mạo địa chỉ IP nhưng chúng không thể giả mạo cách một người tương tác vật lý với thiết bị.
Magril cũng nhấn mạnh rằng công ty ông không thu thập thông tin cá nhân, chỉ có dữ liệu hành vi không có tên hoặc thông tin nhận dạng cá nhân. Đại diện công ty từ chối xác nhận mối quan hệ của Unbotify với Facebook, nhưng cho biết công ty làm việc với các mạng xã hội lớn. Facebook cũng từ chối bình luận về Unbotify.
Hình ảnh minh họa bên trái cho thấy các chuyển động của chuột trên máy tính để bàn được thực hiện bởi bot, trong khi bên phải hiển thị các chuyển động của chuột do con người tạo ra.
Bên cạnh đó, Facebook cũng có những cố gắng riêng bằng cách tăng gấp đôi đội ngũ kiểm duyệt nội dung lên 20.000 nhân viên. Kết quả của những nỗ lực này là 583 triệu tài khoản giả mạo đã bị xóa trong ba tháng đầu của năm 2018.
"Hàng chục triệu tài khoản bị gỡ xuống mỗi ngày", Kevin Lee, kỹ sư phụ trách bảo mật của tổ chức chuyên về phòng chống lừa đảo trực tuyến Sift Science, nói. "Phần lớn được tạo ra bởi máy móc và không phải con người".
Tuy nhiên, dữ liệu hành vi không phải là cách duy nhất mà các hệ thống AI của Facebook sử dụng. Theo Lee, Facebook cũng sử dụng trí tuệ nhân tạo để tự động thông báo nếu một tài khoản được phát hiện có các hành vi bất thường trong cách hoạt động, ví dụ gửi hơn 100 yêu cầu kết bạn trong vòng một phút. Hệ thống cũng có thể phát hiện có bao nhiêu tài khoản khác nhau trên cùng một thiết bị. Theo chuyên gia này, thông thường mọi người có một tài khoản Facebook trên nhiều thiết bị trong khi những kẻ gian lận thì ngược lại, có nhiều tài khoản trên cùng một thiết bị.
Mới đây, mạng xã hội này cũng cho biết đang mở rộng chương trình kiểm tra để bao gồm cả hình ảnh và video. Động thái được đưa ra sau một loạt các chiến dịch tuyên truyền được phát hiện đến từ meme (các bức ảnh hài hước) thay vì các bài báo như trước. Chương trình có sự kết hợp với các tổ chức tin tức lớn như AFP và AP.
Những công cụ kiểm tra này sử dụng AI của công ty AdVerif.ai, theo chia sẻ của chính người sáng lập Or Levi. Chúng có khả năng tìm thấy các hình ảnh được gắn cờ và thực hiện tra cứu ngược lại để xem những nơi khác mà bức ảnh này được đăng, từ đó phát hiện xem có sự chỉnh sửa hay không. Ví dụ, Facebook đã phát hiện một hình ảnh giả mạo một người đang đốt cờ Mỹ. Quá trình truy xuất ngược AdVerif.ai sẽ tìm thấy hình ảnh gốc và xác minh nó đã được chỉnh sửa.
"Chúng tôi đang xem xét hàng trăm đến hàng nghìn bức ảnh mỗi ngày", Levi nói. "Chúng tôi tìm thấy hình ảnh gốc và về cơ bản xác định nó đã bị ai thao tác hay chưa".
Sara Su, chuyên gia sản phẩm phụ trách News Feed của Facebook, cũng chia sẻ trong một sự kiện báo chí mới đây: "Khi xây dựng các bộ phân loại dựa trên công nghệ học máy để xác định một cái gì đó, bạn cần dữ liệu huấn luyện (training data). Trong trường hợp này, xếp hạng đến từ các bài kiểm tra thực tế của bên thứ ba là một nguồn thực sự quan trọng".
Cuộc chiến của Twitter
CEO của Twitter, Jack Dorsey.
Không giống như Facebook, Twitter cho rằng con người đóng một vai trò lớn hơn khi so sánh với AI. Tuy nhiên, quấy rối hay "troll" đang là một trong những vấn nạn lớn nhất của mạng xã hội này, tới mức chính CEO Jack Dorsey đã phải hứa hẹn sẽ sớm tìm ra cách khắc phục vấn đề.
AI là một trong số các công cụ để Twitter phát hiện hành vi của bot, nhưng nó không phải là thứ được hoàn toàn dựa vào để xử lý vấn nạn. Trí thông minh nhân tạo có thể dễ dàng lọc các bài viết rác và xóa chúng một cách tự động, nhưng các thông tin mang tính quấy rối lại hoàn toàn khác. Theo David Gasca, Giám đốc sản phẩm của Twitter chuyên về lĩnh vực sức khỏe, mỗi bài đăng được báo cáo luôn được kiểm tra lại một lần nữa bởi nhân viên công ty trước khi bất kỳ hành động nào được thực hiện.
"Các quy tắc tự động đóng một vai trò trong những tình huống nhất định, nhưng ở những trường hợp khác, có rất nhiều sắc thái bị bỏ qua", Gasca nói. "Đặc biệt là trên Twitter, nơi có rất nhiều ngữ cảnh diễn ra dưới nhiều dạng trò chuyện khác nhau".
Thông thường, công ty thu thập thông tin về tần suất tài khoản bị tắt tiếng, bị chặn, báo cáo, retweet, thích hoặc trả lời của hàng triệu người dùng. AI có thể nhận ra một tài khoản đã bị chặn bởi 50 người khác trong quá khứ và gắn cờ nó để thông báo cho người kiểm duyệt của Twitter. AI cũng có thể cho biết sự khác biệt giữa các tương tác tích cực và tiêu cực.
Tuy nhiên, cách ứng xử với mỗi người dùng là khác nhau, tùy thuộc vào cách họ đang tương tác với những người khác. "Những gì bạn sẽ chặn là khác với những gì tôi sẽ chặn", Gasca nói. Nếu người dùng liên tục chặn mọi người, thuật toán của Twitter sẽ bắt đầu lọc ra nội dung tương tự từ nguồn cấp dữ liệu. Ý tưởng của nó là người dùng sẽ ít có khả năng tiếp tục chặn những gì họ thấy. Kể từ khi triển khai phương pháp mới này, Gasca cho biết đã giảm 40% khối lượng từ các tương tác mới.
Cuộc chiến của Google
CEO của YouTube, Susan Wojcicki.
YouTube, "mạng xã hội video" của Google đang phải đối mặt với cuộc chiến từ các nội dung video và bình luận độc hại. Đó là lý do tại sao công ty đang sử dụng Perspective, một công cụ kiểm duyệt AI được phát triển bởi công ty Jigsaw, cũng thuộc Alphabet.
Perspective được thiết kế để sàng lọc các bình luận độc hại nhằm đối phó với hệ thống bot chuyên quấy rối trực tuyến. AI được cho là tự động gắn cờ các nhận xét mà nó xác định sẽ hủy hoại cuộc hội thoại và cho phép người kiểm duyệt chọn xem họ có nên xóa nó hay không.
Hệ thống sẽ phải nhận hàng triệu bình luận và cung cấp thông tin gắn nhãn cho hàng ngàn người mỗi ngày, theo CJ Adams, đại diện bộ phận quản lý sản phẩm của YouTube. Các nhóm này đánh giá những nhận xét và cho AI biết liệu nhận xét đó là spam, quấy rối hay nội dung tục tĩu. Adams cũng cho biết Perspective không xóa tự động bất cứ bình luận nào.
Công cụ AI này cũng nhận dữ liệu huấn luyện từ các trang web hợp tác như The New York Times và Wikipedia. Nó liên tục được đào tạo lại để học hỏi và tự bảo vệ mình trước các bình luận quấy rối và troll.
"Nhiều người sẽ gõ vào những điều khủng khiếp và nói rằng chúng không độc hại. Họ hy vọng sẽ dạy lại và đánh lừa hệ thống Ai", Adams nói. Nhưng nhóm kiểm duyệt của Perspective đã liên tục chiến đấu để chống lại và hoàn thành tốt công việc của mình. Quá trình không ngừng nghỉ này cũng được cho là đã giúp Google rất nhiều, trong việc cho phép nó sử dụng các dữ liệu này để ngăn chặn những kẻ lừa đảo trong tương lai.
AI cũng không hoàn hảo
Các hệ thống học máy đang ngày càng hoàn thiện, nhưng điều đó không có nghĩa là không có rủi ro. Hôm 4/7 vừa qua, thuật toán của Facebook đã đánh giá một phần nội dung Tuyên ngôn độc lập của nước Mỹ chứa các ngôn từ kích động thù địch và xóa nhầm một bài đăng. Trước phản ứng dữ dội của cộng đồng, bài viết đã nhanh chóng được khôi phục nhưng điều này cũng để lại không ít nghi vấn trong lòng công chúng.
Sai lầm vẫn luôn là một thách thức đối với AI, bất kể nó tốt đến mức nào. Thậm chí nếu chỉ có 1% cơ hội mắc lỗi, với 2 tỷ người dùng Facebook và một tỷ người trên YouTube, vẫn còn hàng chục triệu nội dung độc hại hoặc tài khoản giả mạo bị bỏ qua.
Tuy nhiên, theo Eric Feinberg, người sáng lập FAKE, một tổ chức chuyên chống lại các thông tin giả mạo cho biết: "Ngay cả khi họ nhận được 99% thông tin thực, 1% còn lại vẫn được truyền tới ai đó và gây hậu quả trong thế giới thực".
Nhóm của ông đã tìm thấy 55 tài khoản của thành viên tổ chức IS và báo cáo chúng lên Facebook. Feinberg cho biết Facebook đã thất bại trong việc loại bỏ 24 người trong số này, tuyên bố rằng họ không vi phạm các điều khoản dịch vụ của mạng xã hội ngay cả khi những tài khoản này đã đăng các bản ghi ủng hộ khủng bố.
Trên thực tế các công ty công nghệ hiểu được vấn đề, nhưng có một vấn đề là các nền tảng đã phát triển nhanh hơn công cụ kiểm duyệt. Khi lượng người dùng tiếp cận đã tăng đến mức khổng lồ, việc lạm dụng cũng tăng theo cấp số nhân cùng với nó. Ở quy mô này, AI là cách duy nhất để đối phó với các vấn đề nói trên, bất chấp những sai lầm mà chúng có thể mắc phải trong quá trình hoạt động. Các công ty công nghệ đều hy vọng các thuật toán sẽ dần tự học hỏi và cải thiện theo thời gian.
"Theo nghĩa đen, Facebook không thể thuê đủ người để làm điều này. Bạn phải phụ thuộc vào máy móc, không thể thực hiện tất cả mọi thứ bằng tay nữa", Lee nói.