HNI 23/11

🌺Chương 31: Tâm trí bị thao túng bởi thuật toán

Nếu như thế kỷ XX là thời đại của những cỗ máy cơ khí, thì thế kỷ XXI là thời đại của những thuật toán vô hình. Chúng không gầm rú như động cơ hơi nước, không rung chuyển mặt đất như máy móc công nghiệp, nhưng lại len lỏi vào mọi mặt của đời sống xã hội: từ cách ta giao tiếp, lựa chọn sản phẩm, đọc tin tức, ra quyết định, xây dựng mối quan hệ, cho đến việc ta hiểu chính mình. Thuật toán không chỉ xử lý dữ liệu – chúng xử lý tâm trí con người. Không chỉ dự đoán hành vi – chúng định hình hành vi. Điều đáng sợ là quá trình ấy diễn ra âm thầm, tinh vi đến mức người bị chi phối thậm chí còn cho rằng mình đang “tự do lựa chọn”.

1. Khi bộ não trở thành mục tiêu tối ưu hóa

Mỗi thuật toán trên mạng xã hội, tìm kiếm, thương mại điện tử hay nền tảng video đều được xây dựng để tối ưu một chỉ số trung tâm:

thời gian người dùng ở lại,

số lần nhấp chuột,

tỉ lệ chuyển đổi,

mức độ tương tác.

Nhưng phía sau những con số đó là thứ quan trọng hơn: bộ não con người.

Các nhà tâm lý học hành vi từ nhiều thập kỷ trước đã chỉ ra rằng bộ não không vận hành thuần lý trí. Nó có các điểm yếu:

thích phần thưởng nhanh,

dễ bị cuốn theo cảm xúc mạnh,

sợ bị bỏ lỡ (FOMO),

dễ phản ứng hơn là suy xét,

khao khát được thừa nhận.

Khi kết hợp với máy học và dữ liệu lớn, những lỗ hổng tâm lý này trở thành miếng mồi lý tưởng. Một hệ thống AI, với lượng dữ liệu hàng triệu lần lớn hơn bất kỳ nhà tâm lý nào từng có, có thể học chính xác điều gì khiến mỗi người dừng lại, vuốt xuống, tức giận, mua hàng, hay chia sẻ.

Thuật toán không cần ép buộc.

Nó chỉ cần đủ thông minh để biết điều gì khiến ta không cưỡng lại được.

Khi điều đó xảy ra, tự do lựa chọn chỉ còn là cảm giác.

2. Khi lựa chọn không còn là của ta

Bạn mở một ứng dụng mạng xã hội “một chút cho vui”, và 20 phút sau vẫn chưa thoát ra. Bạn mở máy tính tìm “tin tức thời tiết”, và ba phút sau đã đọc một bài viết gây phẫn nộ về một vấn đề chính trị tận đâu đó. Bạn xem một video “cho đỡ buồn”, và một giờ sau vẫn cười, chia sẻ, và không nhớ mình định làm gì trước đó.

Đấy chính là sức mạnh của điều chỉnh theo phản hồi (feedback loops) – công cụ nguy hiểm nhất của thuật toán.

Thuật toán thử một nội dung.

Bạn xem lâu hơn dự đoán một chút.

Hệ thống ghi nhận: điều này hiệu quả.

Nội dung tương tự tiếp tục được đẩy lên.

Bạn càng xem, mô hình càng hiểu bạn.

Một “phiên bản của bạn trong dữ liệu” ngày càng chính xác.

Sau vài ngày, thuật toán biết về bạn còn rõ hơn chính bạn biết về mình:

lúc nào bạn dễ bị kích thích,

lúc nào tâm trạng yếu,

chủ đề gì khiến bạn phấn khích,

kiểu tiêu đề nào khiến bạn không thể bỏ qua,

thời điểm nào bạn dễ chi tiền hơn.

Và điều xảy ra tiếp theo không phải thuật toán đoán bạn sẽ xem gì.

Mà là thuật toán quyết định bạn sẽ xem gì.

3. Cá nhân hóa – hay “tùy biến thực tại”?

Người dùng thường nghĩ cá nhân hóa là tiện lợi: đúng sản phẩm, đúng sở thích, đúng thời điểm. Nhưng mặt tối của cá nhân hóa là: mỗi người sẽ sống trong một thực tại khác nhau.

Hai người cùng tìm kiếm một từ khóa trên công cụ tìm kiếm, kết quả gần như chắc chắn không giống nhau. Một người liên tục bấm vào tin tức gây tranh cãi, họ sẽ nhận thêm những loại tin tương tự. Người khác quan tâm khoa học, họ sẽ thấy toàn bài phân tích chuyên sâu.

Dần dần, mọi người không chỉ đọc nội dung khác nhau – họ tin vào những phiên bản sự thật khác nhau.

Nếu như ngày xưa, truyền hình và báo chí giúp con người có “trải nghiệm sự thật chung”, thì nay mỗi người sống trong “vũ trụ thông tin của riêng mình”. Điều đó dẫn tới:

khó tranh luận,

khó thấu hiểu nhau,

dễ hình thành cực đoan,

dễ bị kích động.

Không phải vì con người kém thông minh hơn trước, mà bởi mọi hệ thống đều được thiết kế để đưa đến chúng ta những gì khiến ta cảm xúc mạnh nhất – chứ không phải sự thật.

Và khi mỗi người sống trong một lăng kính thông tin riêng, thống nhất xã hội trở nên mong manh hơn bao giờ hết.

4. Khi cảm xúc trở thành công cụ kiếm tiền

Trong kỷ nguyên thuật toán, các nền tảng không kiếm tiền từ nội dung.

Chúng kiếm tiền từ sự chú ý và cảm xúc của người dùng.

Nếu bạn càng tức giận, càng phẫn nộ, càng sợ hãi – bạn càng ở lại lâu hơn. Nếu bài viết khiến bạn bình thản, suy ngẫm và thoát ra ngay sau đó, về mặt thương mại nó kém hiệu quả hơn nhiều.

Một mô hình học máy không được dạy đạo đức.

Nó chỉ học:

“Loại nội dung nào khiến người này xem nhiều nhất?”

Và dữ liệu thực tế chỉ ra một sự thật phũ phàng:

Thứ khiến con người bấm vào nhiều nhất không phải tin giáo dục hay phân tích sâu,

mà là thứ gây phẫn nộ, chia rẽ, giật gân, kích thích cảm xúc nguyên thủy.

Vì vậy:

thuật toán không cần biết điều gì tốt cho xã hội,

nó chỉ cần biết điều gì khiến bạn không thể rời khỏi màn hình.

Trong quá khứ, các chế độ kiểm soát tư tưởng thường phải dùng tuyên truyền, cưỡng ép, kiểm duyệt. Ngày nay chỉ cần cho mỗi người nội dung mà họ dễ bị điều khiển nhất, và họ tự làm phần còn lại.

Sự kiểm soát trở nên mềm mại, hiệu quả và không nhìn thấy bằng mắt thường.

5. Thuật toán và ảo giác về sự thông minh

Nghịch lý là nhiều người cảm thấy mình “thông minh hơn” vì tiếp cận nhiều thông tin hơn. Họ đọc nhiều bài hơn, xem nhiều video phân tích hơn, cập nhật tin tức liên tục.

Nhưng lượng thông tin không đồng nghĩa với chất lượng tư duy.

Khi nội dung được tối ưu cho:

cảm xúc mạnh,

tiêu thụ nhanh,

gây nghiện,

xác nhận niềm tin có sẵn,

thì con người không học cách suy nghĩ phức tạp hơn. Ngược lại, họ quen phản ứng thay vì phân tích.

Thuật toán tạo ra một thế hệ:

đọc tiêu đề nhiều hơn là đọc bài,

bình luận nhanh hơn là suy nghĩ,

nổi nóng trước khi kiểm chứng,

tin vào những gì cảm giác “đúng” hơn là những gì “được chứng minh”.

Một bộ não bị kích hoạt liên tục khó mà phân biệt:

cái mình muốn nghĩ

cái thuật toán muốn mình nghĩ.

Khi thói quen phản xạ bị củng cố mỗi ngày, tự do tư duy dần bị bào mòn mà người ta không hay biết.

6. Nhà tù không cần tường

Michel Foucault từng nói:

“Sự kiểm soát hoàn hảo không phải là trừng phạt, mà là khiến con người hành xử đúng như mong muốn mà không cần ép buộc.”

Thuật toán hiện đại đạt đúng điều đó.

Không ai buộc bạn phải:

xem video tiếp theo,

đọc thêm một bài nữa,

mua sản phẩm gợi ý,

tin một quan điểm nào đó,

trở nên cực đoan hơn.

Bạn tự làm tất cả, nhưng trong môi trường mà mọi thứ được thiết kế để dẫn bạn đến đích “tối ưu” cho hệ thống.

Nhà tù nguy hiểm nhất chính là nhà tù khiến người trong đó tin rằng mình đang tự do.

7. Khi con người trở thành sản phẩm

Người dùng thường nghĩ mình là “khách hàng” của các nền tảng số. Nhưng thực tế thì:

Nếu bạn không trả tiền cho sản phẩm,

thì bạn chính là sản phẩm.

Các mô hình quảng cáo của mạng xã hội, tìm kiếm, video hay game đều dựa trên việc bán khả năng tác động lên hành vi của người dùng:

hiển thị quảng cáo đúng thời điểm tiềm năng mua hàng cao nhất,

thúc đẩy click khi người dùng yếu về mặt cảm xúc,

định hình sở thích theo hướng dễ khai thác hơn.

Các công ty công nghệ không chỉ bán không gian quảng cáo – họ bán ảnh hưởng lên tâm trí con người ở quy mô khổng lồ. Không phải từng cá nhân đơn lẻ, mà từng nhóm tính cách, nhóm hành vi, nhóm tâm lý vi mô.

Đó là thứ mà chưa có đế chế truyền thông nào trong lịch sử từng sở hữu.

8. Cơ chế tác động: từ cá nhân đến xã hội

Tâm trí bị thao túng không dừng lại ở từng cá nhân. Khi hàng triệu người:

bị khuếch đại cảm xúc cực đoan,

tiếp nhận thông tin phiến diện,

sống trong các buồng dội thông tin (echo chambers),

tin vào các phiên bản thực tại khác nhau,

xã hội dễ:

chia rẽ,

mất lòng tin,

khó đồng thuận,

dễ dẫn tới xung đột chính trị, văn hóa, tư tưởng.

Một luận điểm sai lầm nhưng lan truyền mạnh dựa trên cảm xúc có thể gây ảnh hưởng xã hội lớn hơn một sự thật quan trọng nhưng khô khan. Thuật toán không phân biệt:

đâu là thông tin đúng,

đâu là thông tin có lợi,

đâu là thông tin gây hại.

Nó chỉ quan tâm:

“Điều gì khiến người ta tương tác nhiều nhất?”

Và kết quả là: cảm xúc thắng lý trí, tốc độ thắng kiểm chứng, phẫn nộ thắng thấu hiểu.

9. Vậy chúng ta có thể thoát không?

Một câu hỏi khó. Thuật toán không phải kẻ thù. Nó chỉ làm chính xác điều nó được thiết kế để làm. Vấn đề nằm ở:

mục tiêu tối ưu sai lệch,

thiếu kiểm soát đạo đức,

người dùng thiếu kiến thức tự vệ,

xã hội không kịp xây cơ chế phản ứng.

Thoát hoàn toàn có lẽ không thực tế. Nhưng giảm thiểu tác động là khả thi, nếu con người:

a. Nhận ra mình đang bị tác động

Tự do tư duy bắt đầu từ việc nhìn thấy bàn tay vô hình đang định hình suy nghĩ của mình. Nếu bạn ý thức rằng:

nội dung bạn xem không phải “tự nhiên đến”,

mà được chọn để tối ưu hành vi của bạn,

bạn đã bước ra khỏi trạng thái bị điều khiển thụ động.

b. Rèn “kỷ luật thông tin”

Giống như ăn uống lành mạnh cho cơ thể, não cũng cần “ăn lành mạnh”:

hạn chế tin giật gân,

chậm phản ứng với thông tin mới,

ưu tiên nguồn có phương pháp xác minh.

c. Chủ động chọn nội dung thay vì để bị phục vụ

Không để trang chủ quyết định mình xem gì – mà tự tìm thông tin phù hợp với mục tiêu.

d. Xây năng lực tư duy phản biện

Thời đại này kiến thức quan trọng, nhưng phương pháp tư duy còn quan trọng hơn:

phân biệt dữ liệu – kết luận – ý kiến,

kiểm tra nguồn,

nhận biết thiên kiến nhận thức của bản thân.

e. Xây cơ chế xã hội – pháp lý – kỹ thuật

Ở cấp độ lớn hơn, nhân loại cần:

luật bảo vệ dữ liệu cá nhân,

tiêu chuẩn đạo đức cho hệ thống AI,

quyền minh bạch thuật toán,

hạn chế việc tối ưu vì cảm xúc thay vì chất lượng thông tin.

Không có giải pháp đơn lẻ. Nhưng nếu con người không phản ứng, chúng ta sẽ dần biến thành những sinh vật được định hướng bởi đường dẫn tối ưu của máy – không còn là sinh vật tư duy độc lập như mình tưởng.

10. Thuật toán không phải kẻ cắp – nếu ta biết mình đang cho đi thứ gì

Thật ra, vấn đề lớn nhất của thời đại này không phải thuật toán thao túng con người.

Vấn đề là con người không biết mình đang bị thao túng.

Khi ta…

tưởng mình đang xem tin tức,

nhưng thật ra đang bị điều khiển cảm xúc,

tưởng mình đang “tự chọn nội dung”,

nhưng thực ra thuật toán chọn thay,

tưởng mình hiểu xã hội hơn,

nhưng thực ra hiểu đúng phiên bản xã hội mà hệ thống muốn ta thấy,

thì tự do trở nên mong manh.

Thuật toán không ăn cắp tự do của ai.

Nó ch