Por Flávia Ceccato
A crença moderna de que o conhecimento liberta encontra um obstáculo inesperado no ambiente digital (ZUBOFF, 2019; WU, 2016). Em tese, a compreensão de como funcionam os algoritmos na internet deveria capacitar os usuários (GILLESPIE, 2014). Na prática, contudo, essa consciência raramente se traduz em mudança de comportamento (YUAN et al., 2025). Tal fenômeno, denominado “Paradoxo da Consciência Algorítmica”, revela uma das maiores tensões da era digital, em que o saber não é suficiente para o autocontrole (RADER; GRAY, 2015).
As plataformas digitais contemporâneas deixaram de ser apenas canais de informação, passando a operar como sistemas altamente sofisticados de previsão e modulação comportamental, capazes de aprender com cada interação do usuário (GILLESPIE, 2014; ZUBOFF, 2019). Por meio de mecanismos de recomendação e personalização, esses sistemas, além de responderem ao comportamento humano, passaram também a antecipá-lo e moldá-lo (LEWANDOWSKY; ROBERTSON; DIRESTA, 2024). O resultado disso é uma experiência digital passiva em expansão, em que decisões são sutilmente guiadas por arquiteturas invisíveis (WU, 2016).
Sob a perspectiva das neurociências, esse cenário se revela por meio do funcionamento do cérebro humano, especialmente de seus circuitos dopaminérgicos, o qual é altamente sensível a recompensas imprevisíveis (SCHULTZ; DAYAN; MONTAGUE, 1997). Plataformas digitais exploram esse mecanismo por meio de reforços intermitentes, tais como notificações, curtidas e conteúdos inesperados, que mantêm o usuário engajado em ciclos contínuos de antecipação (FIORILLO; TOBLER; SCHULTZ, 2003; ROBINSON; BERRIDGE, 1993). O problema central não reside na falta de consciência, mas na velocidade: esses sistemas operam em milissegundos, enquanto o controle consciente, mediado pelo córtex pré-frontal, é mais lento e energeticamente custoso (FRISTON, 2010).
Essa assimetria temporal está no cerne do paradoxo, uma vez que, mesmo quando o usuário reconhece a manipulação algorítmica, o impulso comportamental já foi acionado (YUAN et al., 2025). Trata-se de disputa desigual entre sistemas subcorticais rápidos, algoritmos ultrarrápidos e um controle executivo relativamente lento. O comportamento digital, dessa maneira, emerge menos da vontade deliberada e mais da competição de latências (FRISTON, 2010).
Outro aspecto crítico é a transformação da própria identidade, que se manifesta à medida que os algoritmos passam a antecipar preferências com alta precisão e o indivíduo tende a se adaptar às sugestões (LEWANDOWSKY; ROBERTSON; DIRESTA, 2024). Assim, escolhas deixam de ser em sua maior parte autônomas e passam a mostrar padrões previamente modelados, cuja consequência é uma autonomia progressivamente reduzida, ainda que mascarada por uma sensação de controle (ZUBOFF, 2019).
A pandemia de COVID-19 intensificou esse processo, uma vez que, com a migração massiva de atividades para o ambiente digital, os algoritmos passaram a ocupar um papel central na mediação da realidade (CINELLI et al., 2020). O aumento do tempo de tela e a sobrecarga informacional criaram condições ideais para o aprofundamento desses ciclos de dependência e engajamento.
Diante desse cenário, insistir em soluções baseadas apenas em “educação digital” ou “consciência algorítmica” revela-se insuficiente (YUAN et al., 2025). A evidência sugere que o problema, além de cognitivo, também é estrutural e neurobiológico (LEÓN MÉNDEZ et al., 2024). Exigir autocontrole pleno em um ambiente projetado para miná-lo é, em certa medida, ignorar os limites do próprio cérebro humano (SCHULTZ, 2016).
A solução efetiva talvez esteja na reconfiguração das próprias tecnologias. Em vez de sistemas orientados exclusivamente para maximizar engajamento, é necessário desenvolver arquiteturas que priorizem o bem-estar cognitivo (OGNIBENE et al., 2023). Isso inclui transparência algorítmica, design ético e, sobretudo, ferramentas que estimulem a cognição e auxiliem o usuário a recuperar sua capacidade de decisão (UNESCO, 2021).
Por fim, o Paradoxo da Consciência Algorítmica nos faz reconhecer que, na era dos algoritmos, a liberdade depende, além do conhecimento do modus operandi da tecnologia, das condições estruturais que permitem transformar esse saber em autocontrole e uso apropriado (ZUBOFF, 2019).
CINELLI, M. et al. The COVID-19 social media infodemic. Scientific Reports, v. 10, n. 1, p. 16598, 2020. Disponível em: https://doi.org/10.1038/s41598-020-73510-5. Acesso em: 11 abr. 2026.
FIORILLO, C. D.; TOBLER, P. N.; SCHULTZ, W. Discrete coding of reward probability and uncertainty by dopamine neurons. Science, v. 299, n. 5614, p. 1898–1902, 2003. Disponível em: https://doi.org/10.1126/science.1077349. Acesso em: 11 abr. 2026.
FRISTON, K. The free-energy principle: A unified brain theory? Nature Reviews Neuroscience, v. 11, n. 2, p. 127–138, 2010. Disponível em: https://doi.org/10.1038/nrn2787. Acesso em: 11 abr. 2026.
GILLESPIE, T. The relevance of algorithms. In: GILLESPIE, T.; BOCZKOWSKI, P. J.; FOOT, K. A. (ed.). Media technologies: Essays on communication, materiality, and society. Cambridge: MIT Press, 2014. p. 167–194. Disponível em: https://doi.org/10.7551/mitpress/9780262525374.003.0009. Acesso em: 11 abr. 2026.
LEÓN MÉNDEZ, M. et al. Effects of internet and smartphone addiction on cognitive control in adolescents and young adults: A systematic review of fMRI studies. Neuroscience & Biobehavioral Reviews, v. 159, p. 105572, 2024. Disponível em: https://doi.org/10.1016/j.neubiorev.2024.105572. Acesso em: 11 abr. 2026.
LEWANDOWSKY, S.; ROBERTSON, R. E.; DIRESTA, R. Challenges in understanding human-algorithm entanglement during online information consumption. Perspectives on Psychological Science, v. 19, n. 5, p. 758–766, 2024. Disponível em: https://doi.org/10.1177/17456916231180809. Acesso em: 11 abr. 2026.
OGNIBENE, D. et al. Challenging social media threats using collective well-being-aware recommendation algorithms and an educational virtual companion. Frontiers in Artificial Intelligence, v. 5, p. 654930, 2023. Disponível em: https://doi.org/10.3389/frai.2022.654930. Acesso em: 11 abr. 2026.
RADER, E.; GRAY, R. Understanding user beliefs about algorithmic curation in the Facebook News Feed. In: ANNUAL ACM CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS (CHI ’15), 33., 2015. Proceedings […]. New York: ACM, 2015. p. 173–182. Disponível em: https://doi.org/10.1145/2702123.2702174. Acesso em: 11 abr. 2026.
ROBINSON, T. E.; BERRIDGE, K. C. The neural basis of drug craving: An incentive-sensitization theory of addiction. Brain Research Reviews, v. 18, n. 3, p. 247–291, 1993. Disponível em: https://doi.org/10.1016/0165-0173(93)90013-P. Acesso em: 11 abr. 2026.
SCHULTZ, W. Dopamine reward prediction-error coding: A two-component profit-maximizing signal. Dialogues in Clinical Neuroscience, v. 18, n. 1, p. 23–32, 2016. Disponível em: https://doi.org/10.31887/DCNS.2016.18.1/wschultz. Acesso em: 11 abr. 2026.
SCHULTZ, W.; DAYAN, P.; MONTAGUE, P. R. A neural substrate of prediction and reward. Science, v. 275, n. 5306, p. 1593–1599, 1997. Disponível em: https://doi.org/10.1126/science.275.5306.1593. Acesso em: 11 abr. 2026.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021.
WU, T. The attention merchants: The epic scramble to get inside our heads. New York: Knopf, 2016.
YUAN, Y.; SHI, Y.; SU, T.; ZHANG, H. Resistance or compliance? The impact of algorithmic awareness on people’s attitudes toward online information browsing. Frontiers in Psychology, v. 16, p. 1563592, 2025. Disponível em: https://doi.org/10.3389/fpsyg.2025.1563592. Acesso em: 11 abr. 2026.

