Internet ngày nay không còn là nơi chúng ta từng biết đến. Hàng tuần, hàng triệu người tranh cãi với các mạng lưới bot AI và những người làm công ăn lương tại các “trang trại troll” như Internet Research Agency, một tổ chức của Nga có trụ sở tại St. Petersburg, nổi tiếng với các chiến dịch gây ảnh hưởng trực tuyến do nhà nước tài trợ nhắm vào Hoa Kỳ và Châu Âu. Ở thời kỳ đỉnh cao, IRA có 300–400 nhân viên làm việc theo ca, tạo ra hàng chục nghìn bài đăng mỗi tháng với ngân sách 1 triệu đô la mỗi tháng. Trong các sự kiện nổi bật vào những năm 2010, có đến một phần ba các tương tác trên mạng xã hội là không xác thực – giờ đây, với sự trợ giúp của AI, con số này tăng lên theo cấp số nhân.
Những năm gần đây, một lý thuyết bên lề cũ đã tái xuất hiện trong các cuộc trò chuyện – đó là Lý thuyết Internet Chết (Dead Internet Theory). Lý thuyết này tuyên bố rằng hầu hết nội dung và tương tác trên internet không còn do con người thật tạo ra, mà là do bot, phương tiện truyền thông do AI tạo ra và các nhiễu loạn được thuật toán khuếch đại. Trọng tâm của lý thuyết là niềm tin rằng các nền tảng, chính phủ hoặc tập đoàn đều đồng lõa trong việc nhân tạo hóa này, dù là do thiết kế hay vì lợi nhuận.
Thoạt nhìn, điều này nghe có vẻ là thuyết âm mưu, nhưng ẩn chứa bên dưới tuyên bố đó là một sự thật đen tối hơn. Chúng ta ngày càng điều hướng một thế giới kỹ thuật số nơi tính xác thực được tạo ra một cách giả tạo. Với sự trỗi dậy của AI tạo sinh (generative AI), việc sản xuất thông tin sai lệch đã trở nên rẻ hơn và nhanh hơn. Mặc dù Lý thuyết Internet Chết chỉ ra một sự bóp méo thực tế và ngày càng tăng trong cách mọi người trải nghiệm web, nó hiện được hỗ trợ bởi các báo cáo báo chí, nghiên cứu an ninh mạng và các công trình học thuật. Kết quả là một vòng lặp phản hồi của sự lan truyền có chủ đích, nơi các xu hướng được thúc đẩy ít hơn bởi sự quan tâm thực sự và nhiều hơn bởi động lực đã được dàn dựng.
Internet không chết — nó bị bóp méo
Một lý thuyết cũ tìm thấy sự liên quan mới
Lý thuyết Internet Chết lập luận rằng kể từ khoảng năm 2016 hoặc 2017, internet đã trở nên ngày càng tổng hợp – được lấp đầy bởi các nhân cách nhân tạo, các bài báo tự động tạo ra và sự tương tác tự động – trong khi hoạt động chân thực của con người bị nhấn chìm. Lý thuyết này bắt nguồn từ các cuộc thảo luận trên diễn đàn tin nhắn 4chan và Wizardchan, và được chú ý rộng rãi hơn sau một bài đăng trên diễn đàn Agora Road vào năm 2021 bởi một người dùng có tên IlluminatiPirate. Một năm sau, ChatGPT được phát hành ra công chúng, và các nhà báo bắt đầu xem xét lại lý thuyết này.
Vào tháng 1 năm 2024, Dani Di Placido, một cộng tác viên cấp cao tại Forbes, đã xuất bản một bài viết giải thích về Lý thuyết Internet Chết – và hoàn toàn bỏ lỡ trọng tâm.
“Chắc chắn có bot ngoài kia, nhưng lý thuyết này không mô tả internet ngày nay, chứ đừng nói đến năm 2021. Các trang mạng xã hội luôn thực hiện các biện pháp để chặn spambot và vẫn đang làm như vậy, ngay cả khi các bot đang phát triển, được hỗ trợ bởi AI tạo sinh.
Hiện tại, AI tạo sinh chưa có khả năng tự tạo ra nội dung tốt, đơn giản vì AI không thể hiểu ngữ cảnh. Đại đa số các bài đăng lan truyền – những ý kiến vô căn cứ, những câu nói dí dỏm, những quan sát tinh tế, việc tái định hình những điều quen thuộc trong một ngữ cảnh mới – đều không phải do AI tạo ra.”
Mặc dù đôi khi ước tính cao hơn, nhưng ít nhất 40-50% của internet có thể truy cập được được báo cáo là giả mạo. Và thành thật mà nói, tôi nghi ngờ bạn cần phải được thuyết phục rằng ít hơn một nửa những gì trực tuyến là đáng tin cậy – gần như mọi nghiên cứu lớn đều chứng minh điều mà hầu hết mọi người đã biết từ kinh nghiệm. Tự do internet đang ở mức thấp nhất mọi thời đại, và những tiến bộ trong AI đang khiến mọi thứ trở nên tồi tệ hơn nhiều.
Di Placido và nhiều nhà báo chính thống khác không nhận ra rằng AI tạo sinh không hoạt động độc lập. Luôn có một con người đứng sau nó, sử dụng nó một cách có chủ đích. Vấn đề không phải là liệu AI có thể tạo ra nội dung tốt mà không cần trợ giúp hay không – mà là cách nó được sử dụng để tạo ra sự tương tác ở quy mô lớn, bóp méo khả năng hiển thị và làm ngập các nền tảng bằng ảnh hưởng tổng hợp cùng các chiến dịch thông tin sai lệch trực tuyến được khuếch đại.
Thông báo của Mark Zuckerberg về việc Meta chấm dứt kiểm tra thông tin và các bình luận tiêu cực trên Instagram
Nguồn: Instagram
Đối với ý tưởng rằng các công ty mạng xã hội đang tích cực chống lại điều này, thật nực cười. Các nền tảng này kiếm lợi từ sự không xác thực. Đó là một phần cốt lõi trong cách chúng hoạt động. Zuckerberg đã công khai thông báo Meta sẽ chấm dứt kiểm tra thông tin trên tất cả các nền tảng của mình. Musk đã đóng cửa toàn bộ đội ngũ chống thông tin sai lệch bầu cử của Twitter vào năm 2023, sau đó vài tháng đã ra mắt một cái gọi là Cộng đồng Toàn vẹn Bầu cử – một nhóm 50.000 thành viên tràn ngập các thuyết âm mưu về gian lận cử tri và thao túng phiếu bầu.
Và chúng ta biết sự ủng hộ của Musk dành cho Trump đã đưa ông ta đến đâu – đưa ra một cử chỉ chào phát xít trên sân khấu, can thiệp vào chính trị Mỹ và Đức, tự định vị mình là một thành viên nội các không được bầu thông qua Doge, làm giảm giá trị của Tesla, và trở thành một trong những người bị ghét nhất hành tinh. Vì vậy, không có gì khó hiểu khi nghĩ rằng ông ta sẽ tích cực định hình nền tảng để phản ánh cùng một thực tế được tạo ra như Lý thuyết Internet Chết mô tả.
Ảo ảnh về sự tương tác
Tuyên truyền có thể mở rộng áp đảo lời nói hữu cơ
Khi tôi nhắc đến bot, tôi muốn nói đến toàn bộ phổ nội dung không xác thực – các nhân cách do AI tạo ra, nhân viên của trang trại troll, những người theo dõi giả, các phản hồi được sản xuất hàng loạt – bất cứ thứ gì được thiết kế để mô phỏng sự tương tác thực sự của con người mà không phải là nó. Nếu gần đây internet có cảm giác giả dối, bạn không sai đâu – và không chỉ trong lĩnh vực chính trị. Bot đang tràn ngập mọi sự kiện lớn, từ bầu cử đến văn hóa đại chúng, từ tin tức chiến tranh đến quảng bá thương hiệu.
Thế hệ mạng lưới bot AI mới này không chỉ bắt chước sự tham gia; chúng còn vượt trội hơn. Chúng nhanh, không mệt mỏi và được xây dựng để thao túng các thuật toán vốn thưởng cho hoạt động hơn là tính xác thực. Điều gì trở thành xu hướng không phải là điều mọi người coi trọng – mà là điều gây ra nhiều phản ứng nhất. Nội dung “rage bait” (câu kéo sự tức giận) tác động mạnh hơn, kích thích dopamine và khiến mọi người quay lại để xem thêm.
Sự chuyển dịch khỏi nội dung hữu cơ không xảy ra cùng một lúc, nhưng đối với tôi, điều đó trở nên rõ ràng khi MySpace buộc phải tái thiết kế vào năm 2010. Trang web này từng cho phép bạn định hình không gian riêng của mình – mã tùy chỉnh, âm nhạc, sở thích thực tế của bạn – và đột nhiên tất cả bị san phẳng thành một hồ sơ chung mà không ai yêu cầu. Đó là khi mọi người bắt đầu rời đi, và tôi không đổ lỗi cho họ.
Điều đọng lại trong tôi không phải là giao diện—mà là điều nó nói lên về hướng đi của mọi thứ. Chúng ta đã đi từ tùy chỉnh sang đồng nhất, từ thể hiện sang trình diễn, từ trò chuyện sang nguồn cấp dữ liệu.
Ví dụ về hồ sơ tùy chỉnh trên MySpace trước khi tái thiết kế, minh họa kỷ nguyên internet cá nhân hóa
Nguồn: MySpace
Trong những năm đầu đó, internet giống như một lối thoát. Đó là nơi mọi người chia sẻ những trải nghiệm thực sự – âm nhạc, câu chuyện, ý tưởng, nỗi đau, sự hài hước – và đối với một người bị mắc kẹt ở một thị trấn nhỏ, điều đó có ý nghĩa rất lớn. Tôi đã xây dựng các mạng lưới giúp tôi đi lưu diễn với tư cách là một nhạc sĩ, gặp gỡ hàng ngàn người và kết bạn mà tôi vẫn thân thiết cho đến ngày nay. Dù tốt hay xấu, nó vẫn có cảm giác như bạn thực sự đang kết nối với những con người khác.
Tất nhiên cũng có những kẻ khó chịu – một số chỉ khuấy động mọi thứ để mua vui, những người khác chỉ cay đắng và độc hại – nhưng nó không bao giờ có cảm giác giả dối. Nó giống như những người đang cư xử thô lỗ, chứ không phải một hoạt động của tập đoàn. Đó là điểm khác biệt bây giờ. Điều từng là một người gây ra hỗn loạn đã leo thang thành một thứ hoàn toàn khác. Nó nhanh hơn, được phối hợp tốt hơn, và thường không phải là con người. Và nó không chỉ là việc troll nữa – nó là việc kiểm soát câu chuyện.
Ai đứng sau mạng lưới bot?
Thao túng do nhà nước tài trợ và chiến tranh tâm lý
Cuộc chiến thông tin mà chúng ta đang sống không bắt đầu với mạng xã hội – nó là một hình thức hiện đại của điều gì đó đã phát triển trong nhiều thập kỷ. Tuyên truyền đã là một chiến trường trong Thế chiến thứ hai và Chiến tranh Lạnh, và các chiến dịch tâm lý từ lâu đã là một phần của chiến lược quân sự và tình báo. Nhưng sự thay đổi mà chúng ta đang chứng kiến hiện nay – nơi thông tin sai lệch là liên tục, có thể mở rộng và tương tác – có thể được truy nguyên trực tiếp từ các thử nghiệm của Nga vào những năm 2000.
Sau sự sụp đổ của Liên Xô, Nga phải đối mặt với thảm họa kinh tế, bất ổn xã hội và ảnh hưởng toàn cầu suy giảm. Điện Kremlin đã phản ứng bằng cách đầu tư vào việc kiểm soát câu chuyện. Một trong những kiến trúc sư của nỗ lực này là Vladislav Surkov, một cố vấn của Vladimir Putin, người công khai ủng hộ tuyên truyền mâu thuẫn, gây nhầm lẫn có chủ đích và hỗn loạn thông tin như các công cụ quản lý. Điều này không phải là về việc khiến mọi người tin vào một sự thật duy nhất – mà là về việc làm mất ổn định chính khái niệm về sự thật.
Cách tiếp cận đó đã hình thành thông qua Internet Research Agency, cơ quan này đã trở thành một mô hình cho việc công nghiệp hóa thông tin sai lệch. Các nhân viên của họ không chỉ là những kẻ troll – họ tuân thủ các chỉ tiêu, sử dụng các hướng dẫn kiểu nội bộ và vận hành các nhân cách giả mạo xuyên suốt các ranh giới ý thức hệ để gây chia rẽ và xói mòn lòng tin. Một số đóng vai những người bảo thủ cực đoan, số khác lại đóng vai các nhà hoạt động của Black Lives Matter. Sự hỗn loạn là có chủ đích.
Các cơ quan tình báo Hoa Kỳ đã xác nhận sự tham gia của họ trong cuộc bầu cử năm 2016. Nhưng mục tiêu lớn hơn không bao giờ chỉ là bầu cử – mà là sự bất ổn lâu dài. Đẩy đủ nhiễu loạn vào hệ thống, và hệ thống sẽ bắt đầu thất bại. Mọi người ngừng tin vào sự thật, vào các tổ chức, vào nhau. Các trang trại troll đã tiếp cận 140 triệu người Mỹ mỗi tháng trên Facebook trước cuộc bầu cử năm 2020.
Các quốc gia khác cũng làm theo kịch bản tương tự. Ngày nay, hơn 70 chính phủ – bao gồm Trung Quốc, Iran, Ả Rập Xê Út, Israel, Ấn Độ, Venezuela và thậm chí cả Hoa Kỳ – điều hành các chương trình thông tin sai lệch có tổ chức. Dù được thực hiện thông qua các nhân cách do AI tạo ra, các trang trại troll hay các mạng lưới khuếch đại bí mật, chiến lược vẫn giống nhau: biến sự chia rẽ thành vũ khí và để công chúng làm phần còn lại.
Mặc dù có bằng chứng ngày càng tăng cho thấy chiến tranh kỹ thuật số đang leo thang, Bộ trưởng Quốc phòng Pete Hegseth đã ngừng tất cả các hoạt động tấn công mạng nhắm vào Nga. Động thái này là một phần của việc giảm bớt các sáng kiến của Hoa Kỳ nhằm giải quyết các mối đe dọa trực tuyến – từ việc giải tán các đội an ninh bầu cử đến việc cắt giảm đầu tư liên bang vào phòng thủ mạng. Với ít biện pháp đối phó hơn, khối lượng và sự tinh vi của thông tin sai lệch sẽ chỉ tăng lên. Nhiều thứ chúng ta thấy trực tuyến sẽ là bịa đặt, và chúng ta sẽ phải điều hướng nó với ít sự bảo vệ hơn.
Hình ảnh các nhân vật chính trị và công nghệ Donald Trump, Elon Musk và Vladimir Putin, biểu tượng cho quyền lực và ảnh hưởng trên không gian số
Nguồn: Wiki Commons – Buaidh
Thao túng trong nước bởi những người có ảnh hưởng và lợi ích doanh nghiệp
Thông tin sai lệch có phối hợp không chỉ giới hạn ở các tác nhân nhà nước. Những người có ảnh hưởng, các nhân vật chính trị và lợi ích của doanh nghiệp thường xuyên sử dụng các phương pháp tương tự để định hình nhận thức của công chúng. Sự khác biệt nằm ở động cơ, không phải cơ chế.
Vụ bê bối Cambridge Analytica đã phơi bày cách dữ liệu cá nhân có thể bị thu thập và sử dụng để xây dựng hồ sơ tâm lý, cho phép nhắm mục tiêu thông điệp chính trị được tối ưu hóa cho phản ứng cảm xúc. Mô hình đó – nội dung nhắm mục tiêu siêu nhỏ được thiết kế để gây ảnh hưởng đến hành vi – không chỉ hiệu quả mà còn trở thành phương pháp tiêu chuẩn trên các lĩnh vực chính trị và thương mại.
Kể từ đó, các tác nhân trong nước đã mở rộng các chiến thuật này. Các thương hiệu và công ty quản lý danh tiếng triển khai bot để làm ngập các bài đăng bằng các bình luận ủng hộ hoặc để nhấn chìm sự chỉ trích. Những người có ảnh hưởng mua lượt thích, chia sẻ và bình luận để thổi phồng số liệu của họ và đủ điều kiện nhận các thỏa thuận tài trợ. Các chiến dịch phối hợp mô phỏng sự phổ biến, đàn áp sự bất đồng và gieo mầm các câu chuyện trên các nền tảng. Phần lớn sự tương tác này được tự động hóa hoặc thuê ngoài, và ít thông tin tiết lộ nào phân biệt phản hồi xác thực của người dùng với sự khuếch đại tổng hợp.
Các cuộc điều tra gần đây xác nhận rằng việc quảng bá dựa trên bot cũng mở rộng đến nội dung chính trị cực đoan. Trong năm 2024 và 2025, các báo cáo đã xác định những nỗ lực phối hợp để khuếch đại những người có ảnh hưởng cánh hữu có liên quan đến việc phủ nhận bầu cử và tuyên truyền của nước ngoài, bao gồm các hoạt động liên quan đến Nga. Các tài khoản này nhận được một lượng lớn tương tác không xác thực, bóp méo cả phạm vi tiếp cận và tính hợp pháp cảm nhận được. Một khi một bài đăng thu hút đủ tương tác – thật hoặc giả – nó sẽ có được động lực thuật toán và khả năng hiển thị rộng hơn, củng cố ảnh hưởng của nó.
Các ưu đãi của nền tảng càng củng cố vấn đề. Twitter đã loại bỏ các hệ thống kiểm duyệt cốt lõi, cho phép xác minh trả phí để tăng cường phạm vi tiếp cận thuật toán và cho phép các mạng lưới bot thao túng nội dung thịnh hành. Các biện pháp bảo vệ nội bộ chống lại hành vi không xác thực phối hợp đã bị giảm hoặc loại bỏ, cho phép các tác nhân thông tin sai lệch đã biết duy trì khả năng hiển thị. Những nỗ lực chống lại các câu chuyện này thường nhận được ít sự chú ý hơn hoặc bị hạn chế bởi thiết kế.
Cơ sở hạ tầng ưu tiên tương tác hơn độ chính xác và phạm vi tiếp cận hơn độ tin cậy. Thông tin sai lệch phát triển mạnh không phải vì nó có tính thuyết phục, mà vì các hệ thống được xây dựng để thưởng cho sự tương tác bất kể nguồn gốc của nó. Cấu trúc đó phản ánh tiền đề cốt lõi của Lý thuyết Internet Chết – không phải là internet nghĩa đen là chết, mà là các tín hiệu tổng hợp đã làm lu mờ sự tương tác chân thực của con người. Trên mạng xã hội, những sự bóp méo đó không còn là lý thuyết nữa – chúng có thể đo lường được, được kiếm tiền từ đó và phổ biến rộng rãi.
Nội dung thông tin sai lệch trong nước được lan truyền bởi các nhóm meme và người có ảnh hưởng như Brenden Dilley, nguồn Media Matters
Nguồn: Media Matters
Nhận diện các hệ thống thông tin sai lệch kỹ thuật số
Các “trang trại troll” hiện đại xây dựng thông tin sai lệch trên quy mô lớn như thế nào
Các trang trại troll tuyển dụng nhân viên thông qua các danh sách việc làm nhập liệu không rõ ràng. Sau khi ký NDA (thỏa thuận bảo mật), những người mới được tuyển sẽ được thông báo rằng nhiệm vụ thực sự của họ là đóng giả người Mỹ hoặc công dân của quốc gia mục tiêu. Mỗi nhân viên quản lý nhiều nhân cách giả mạo trên các nền tảng như Facebook, Twitter, Instagram và Telegram. Họ được cung cấp tiểu sử theo kịch bản, các album ảnh được tuyển chọn và thư viện nội dung phù hợp với chính trị. Một người điều hành có thể quản lý mười hoặc nhiều nhân cách cùng lúc, mỗi nhân cách có tên, tiểu sử, phương ngữ khu vực và xu hướng tư tưởng riêng.
Cấu trúc là có hệ thống. Các nhân viên hoạt động theo ca luân phiên dưới sự giám sát của các trưởng nhóm, những người giao các chủ đề hàng ngày, xem xét hiệu suất và thực thi các chỉ tiêu tương tác nghiêm ngặt. Nhân viên sẽ bị cảnh cáo hoặc thay thế nếu một nhân cách không tạo ra đủ phản hồi, lượt thích hoặc chia sẻ. Nhân viên đăng meme, tranh luận, các clip lan truyền và nội dung gây cảm xúc, thường được lấy từ các kho lưu trữ đã được phê duyệt trước. Ngày càng nhiều trang trại sử dụng nội dung do AI tạo ra làm cơ sở, được chỉnh sửa nhẹ để phù hợp với giọng điệu hoặc đặc điểm nhân cách.
Hướng dẫn vận hành của các trang trại troll Facebook, được dịch sang tiếng Anh, tiết lộ quy trình tạo thông tin sai lệch
Nguồn: Benn Jordan
Các hướng dẫn hoạt động bị rò rỉ từ IRA và các hoạt động tương tự hướng dẫn nhân viên duy trì hành vi hợp lý. Họ được yêu cầu đăng nội dung không liên quan đến chính trị vài ngày một lần – những câu chuyện cá nhân, tin tức địa phương, ảnh thú cưng hoặc thức ăn – để hòa nhập với người dùng thật. Các tài khoản nhân cách được mong đợi tham gia các nhóm cộng đồng, theo dõi các chính trị gia và doanh nghiệp, và tương tác với các chủ đề thịnh hành. Có các giao thức cụ thể về thời điểm bình luận, thời điểm phản ứng và cách leo thang các bài đăng để xuất hiện như thể đang lan truyền.
Nhân viên thường được giao nhiệm vụ đóng nhiều vai trong một vấn đề. Sử dụng các nhân cách đối lập, họ dàn dựng các cuộc tranh luận nảy lửa trong các phần bình luận để thu hút người dùng thật. Những cuộc trao đổi này được thiết kế không phải để thuyết phục mà là để phá vỡ, khuếch đại sự nhầm lẫn, phẫn nộ hoặc chủ nghĩa bộ lạc. Một số tài khoản đẩy các thuyết âm mưu, trong khi những tài khoản khác kiểm tra tính xác thực của chúng. Mục tiêu là làm xói mòn lòng tin và làm mờ sự đồng thuận, chứ không phải xây dựng nó.
Các trang trại troll và bot hiện đại giống như các công ty tiếp thị kỹ thuật số. Họ sử dụng bảng điều khiển hiệu suất, lịch nội dung, theo dõi chỉ tiêu và hướng dẫn kiểu. Một số nhóm tập trung vào việc gieo mầm thông tin sai lệch, và những nhóm khác tăng cường tương tác để tạo ra ảo ảnh về sự đồng thuận. Giống như các chiến dịch, họ thực hiện theo chu kỳ, nhắm mục tiêu các vấn đề, đối tượng nhân khẩu học hoặc các cuộc bầu cử cụ thể. Điều xuất hiện như một cuộc tranh luận hữu cơ thường được tạo ra từng bài đăng, từng ca làm việc và từng kịch bản.
Cách nhận diện nội dung không xác thực — và ngừng nuôi dưỡng nó
Hầu hết mọi người không cần các công cụ học thuật để phát hiện một tài khoản giả mạo – họ chỉ cần chú ý. Nếu một bài đăng gây ra phản ứng cảm xúc ngay lập tức, hãy tạm dừng. Các trang trại troll và mạng lưới bot dựa vào sự phẫn nộ được tạo ra để chuyển hướng sự chú ý của bạn sang sự chia rẽ. Đó là sản phẩm: không phải bài đăng, mà là phản ứng của bạn.
Nếu bạn không chắc chắn và cảm thấy buộc phải tìm hiểu, hãy nhấp vào hồ sơ của người đăng. Bạn không cần phải điều tra kỹ lưỡng – chỉ cần liếc qua. Nhìn vào tên, ảnh đại diện và tiểu sử. Các tài khoản giả mạo thường theo các xu hướng. Một tuần là ảnh đại diện nghệ thuật vector, tuần tiếp theo là ảnh với ánh sáng kịch tính và những câu khẩu hiệu mơ hồ, đầy động lực. Chúng có thể sử dụng các cấu trúc đặt tên tương tự hoặc thiếu bất kỳ thông tin cá nhân cụ thể nào. Người thật thì không nhất quán. Bot thì theo các mẫu.
Các mẫu hình thu nhỏ cũng là một dấu hiệu dễ nhận biết, đặc biệt trên các nền tảng như TikTok hoặc Instagram. Hồ sơ của người thật thường phản ánh cuộc sống của họ – khuôn mặt, địa điểm, sự kiện và các sở thích ngẫu nhiên. Các tài khoản bot thường hiển thị các hàng hình thu nhỏ với kiểu dáng gần như giống hệt nhau: cùng phông chữ, cùng tư thế, cùng chủ đề, lặp đi lặp lại không ngừng trên hàng chục hoặc hàng trăm tài khoản. Nếu bạn nhận thấy điều đó, bạn không tưởng tượng đâu.
Ngôn ngữ cũng tố cáo chúng. Một số bot sử dụng các hashtag và cụm từ đầy cảm xúc để “câu kéo”; những bot khác cố gắng nghe có vẻ bình tĩnh và “hợp lý” trong khi lặng lẽ lan truyền thông tin sai lệch. Dù bằng cách nào, dấu hiệu nhận biết là sự lặp lại. Nếu một bình luận giống với hàng chục bình luận khác mà bạn đã thấy, đó là vì nó như vậy. Bot sao chép từ một kịch bản vì các kịch bản có hiệu quả.
- Tạm dừng nếu nó khiến bạn tức giận — cảm xúc mạnh là một dấu hiệu cảnh báo.
- Nhấp vào hồ sơ — người thật có sự ngẫu nhiên: bạn bè, ảnh, những nét riêng.
- Quét tìm các mẫu hình — tìm kiếm tên, tiểu sử hoặc hình thu nhỏ lặp đi lặp lại.
- Tin vào trực giác của bạn — nếu nó có vẻ được dàn dựng hoặc theo kịch bản, có lẽ đúng như vậy.
- Hạn chế trả lời — nếu bạn đã tranh luận qua lại một hoặc hai lần, đừng để bị kéo vào một vòng lặp.
Quy tắc đơn giản nhất? Nếu có gì đó cảm thấy không đúng, đừng tương tác. Nếu một bài đăng có vẻ được tạo ra, hoặc tài khoản có vẻ được trau chuốt kỳ lạ và trống rỗng, có lẽ đúng là như vậy. Và nếu bạn không thể kiềm chế được, đừng tranh cãi – chỉ cần để lại một bình luận nói rằng, “Tôi đã kiểm tra. Đây là một bot.” Bạn đã thực hiện xong công việc kiểm tra. Nếu bạn đã trải qua vài vòng tranh cãi độc hại, đó là dấu hiệu để bạn dừng lại. Mỗi phản hồi đều nuôi dưỡng hệ thống, vì vậy hãy giữ mức độ tương tác ở mức tối thiểu và tiếp tục.
Internet chưa chết, nhưng nó đã bị chiếm đóng
Internet ngày nay phản ánh một sự thay đổi trong kiểm soát – từ con người, sang các hệ thống được thiết kế để thao túng sự chú ý. Thông tin sai lệch không còn chỉ là một chiến thuật. Nó là một ngành công nghiệp. Các mạng lưới bot phối hợp, các nhân cách do AI điều khiển và các thuật toán được tối ưu hóa tương tác đã xây dựng một thực tế thưởng cho sự phẫn nộ, chôn vùi sự thật và bóp méo những gì là thật.
Đây không phải là những vấn đề trừu tượng. Chúng xuất hiện trong nguồn cấp dữ liệu của bạn, các cuộc trò chuyện và cảm nhận của bạn về những gì phổ biến hoặc đúng đắn. Và mặc dù dễ dàng cảm thấy bị áp đảo, nhưng các dấu hiệu thao túng vẫn có thể nhìn thấy được – nếu bạn biết cách tìm kiếm: sự lặp lại, mồi nhử cảm xúc, các tài khoản chung chung với khả năng hiển thị được thổi phồng. Hầu hết mọi người đã cảm thấy có điều gì đó không ổn. Họ chỉ chưa được cho biết phải làm gì.
Một thế hệ nền tảng mới đang xuất hiện – phi tập trung, do người dùng quản lý và được thiết kế để chống lại những thất bại của các mạng lưới truyền thống. Mastodon và Bluesky (Twitter), Pixelfed (Instagram), PeerTube (YouTube) và Skylight Social (TikTok) được xây dựng trên các giao thức mở, mang lại cho người dùng quyền sở hữu thực sự đối với những gì họ thấy và chia sẻ. Kiểm duyệt minh bạch và dựa vào cộng đồng, không bị chi phối bởi các hệ thống mờ ám. Bot phải đối mặt với sự cản trở thực sự thông qua các danh sách chặn chung và sự giám sát của công chúng. Đây không chỉ là những lựa chọn thay thế – chúng là những cấu trúc lại xã hội truyền thông, với quyền riêng tư, quyền tự chủ và tính toàn vẹn là cốt lõi.
Không có nút đặt lại. Nhưng có một con đường phía trước. Chúng ta phải trở thành những người tham gia tích cực vào việc định hình môi trường kỹ thuật số của mình thay vì những người tiêu dùng thụ động của những ảo ảnh được tuyển chọn.