Khoảng trống chết người

13:48 | 21/12/2019

(HQ Online) - Bất chấp việc Facebook tuyên bố đã thẳng tay loại bỏ những phát ngôn kích động thù hận trên nền tảng của mình nhiều hơn bao giờ hết, các nhà quan sát đã chỉ ra rằng vẫn có những lỗ hổng cực lớn trong vấn đề này. 

Mạng xã hội lớn nhất thế giới hồi giữa tháng 11 vừa qua cho biết đã loại bỏ hơn 7 triệu lượt phát ngôn thù hận trong quý III/2019, tăng 59% so với quý trước. Không thể làm được việc này, nếu như không có sự trợ giúp đắc lực của trí tuệ nhân tạo (AI): có đến 80% trường hợp kích động thù hận được phát hiện bởi AI.

Tuy nhiên, một khoảng trống chết người cũng phát sinh từ đó.

Lý do là các thuật toán mà Facebook hiện đang sử dụng để loại bỏ các phát ngôn thù hận chỉ hoạt động được với hơn 40 ngôn ngữ trên toàn thế giới, tập trung vào một số ngôn ngữ chủ yếu là tiếng Anh, tiếng Tây Ban Nha và tiếng Quan thoại (Trung Quốc). Phần còn lại của thế giới cũng vô cùng rộng lớn, song Facebook chỉ có thể dựa hoàn toàn vào nhân sự của mình và những tình nguyện viên. Không thể cần mẫn và nhanh chóng như các thuật toán, những nhân – viên - kiểm - duyệt - người – thật không thường xuyên “quét” web để phát hiện kịp thời những phát ngôn quá khích trước khi chúng được “cư dân mạng” gắn cờ báo cáo. Chính vì thế, có không ít phát ngôn thù hận, phân biệt chủng tộc, kích động bạo lực vẫn lọt lưới.

Một ví dụ điển hình đến từ Ấn Độ, quốc gia đông dân thứ hai trên thế giới với hơn 1,2 tỷ người đang sử dụng… gần 800 ngôn ngữ. Theo một nguồn tin đáng tin cậy của tờ Time, thì trong số 22 ngôn ngữ chính thức của Ấn Độ, chỉ có 4 ngôn ngữ - tiếng Hindi, tiếng Bengal, tiếng Urdu và tiếng Tamil – là được kiểm soát bởi các thuật toán của Facebook. Trong khi đó, khoảng 25% dân số Ấn Độ không sử dụng ít nhất một trong bốn ngôn ngữ này hoặc tiếng Anh.

Và trên thực tế, ở bang Assam, phía đông bắc Ấn Độ, lỗ hổng thuật toán của Facebook đã vô hình trung cho phép chủ nghĩa cực đoan bạo lực phát triển nhanh chóng tỷ lệ thuận với các tính năng chia sẻ văn bản, hình ảnh và video. Người ta đã phát hiện ra nhiều bài viết có nội dung không thể nào chấp nhận được trong một xã hội văn minh. Thế nhưng có những bài viết/ phát ngôn đã được xem tới 5,4 triệu lần trước khi bị gỡ bỏ.

Facebook sau đó xác nhận họ không có thuật toán phát hiện ngôn từ kích động thù địch ở Assamese, ngôn ngữ chính được sử dụng tại bang Assam và thanh minh rằng họ không có một bộ dữ liệu ngôn ngữ đủ lớn để đào tạo trí tuệ nhân tạo phát hiện ra những phát ngôn kích động thù hận, bạo lực bằng ngôn ngữ này. Trong khi đó, nạn nhân của các phát ngôn kích động thù hận lại thường là các cộng đồng bị thiệt thòi, thiếu quyền truy cập trực tuyến cũng như hiểu biết để có thể kịp thời “gắn cờ” báo cáo cho Facebook…

Nói gì thì nói, việc khắc phục khoảng trống chết người này phải là một trong những ưu tiên hàng đầu của “ông lớn” mạng.

Cẩm Hà