Resumo
Este estudo procura mostrar algumas contribuições da filosofia de Gilbert Simondon (1924-1989) para a compreensão de setores específicos da inteligência artificial. A pesquisa possui um recorte que se delimita ao âmbito das inteligências artificiais generativas, as quais são comuns em assistentes pessoais, denominados de Chatbots. Neste contexto, a investigação questiona se a filosofia de Simondon pode auxiliar a compreensão dos desafios e perigos apresentados pelas inteligências artificiais generativas. Para responder a esta questão, realiza-se um estudo conceitual com foco nos conceitos de “conjunto técnico” e “processo de concretização” de Simondon, para em seguida apontar os fenômenos emergentes e perigos da inteligência artificial. A conclusão aponta para um afastamento do ser humano em relação ao “conjunto técnico”.
Referências
BAKER et. al. Emergent tool use from multi-agent autocurricula. Arxiv - Cornell University (2023). Disponível em: <https://arxiv.org/abs/1909.07528> acesso em 29 de Setembro de 2023.
BERGLUND et. al. Taken out of context: On measuring situational awareness in LLMs. Arxiv - Cornell University (2023). Disponível em: <https://arxiv.org/abs/2309.00667> acesso em 02 de Setembro de 2023.
BETLEY et. al. Narrow Finetuning Can Produce Broadly Misaligned LLMs. Arxiv, Cornell University, 12 de Maio de 2025. Disponível em: <https://arxiv.org/pdf/2502.17424>. Acesso em 03.09.2025.
BUBECK et. al. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Arxiv – Cornell University (2023). Disponível em: <https://arxiv.org/abs/2303.12712> acesso em 25 de maio de 2023.
CABRAL, Caio César. Elementos básicos da teoria da individuação de Gilbert Simondon. Trans/Form/Ação, Marília, v. 44, n. 2, p. 63-82, Abr./Jun., 2021
CLOUD et. al. Subliminal learning: language models transmit behavioral traits via hidden signals in data. Arxiv, Cornell University, 20 de Julho de 2025. Disponível em: <https://arxiv.org/pdf/2507.14805>. Acessado em 03.09.2025.
DOMINGOS, Pedro. O algoritmo mestre. São Paulo: Novatec Editora, 2017.
NEEDHAM et. al. Large Language Models Often Know When They Are Being Evaluated. Arxiv, Cornell University, 16 de Julho de 2025. Disponível em: <https://arxiv.org/pdf/2505.23836>. Acessado em 03.09.2025.
SIMONDON, Gilbert. Do modo de existência dos objetos técnicos. Rio de Janeiro: Contraponto, 2020.
SHEVLANE et al. Model evaluation for extreme risks (2020). Arxiv - Cornell University. Disponível em: <https://arxiv.org/abs/2305.15324> acesso em 27 de maio de 2023.

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Copyright (c) 2026 Synesis (ISSN 1984-6754)
