«Inteligencia Artificial»: ¿Error o acierto?
DOI:
https://doi.org/10.19135/revista.consinter.00017.12Palavras-chave:
‘Inteligencia artificial’, Error, Peligro, Sustantividad HumanaResumo
Este artículo académico tiene como objetivo reflexionar, críticamente, sobre la ‘inteligencia artificial’ y sobre los peligros que esta conlleva. Partiendo de la idea de que todo avance tecnológico comportaría una mejora para la vida de las personas, advierto que esto no siempre es así y que, más bien, toda tecnología, incorporada en la sociedad, produce consecuencias que son un remedio y, a la vez, un veneno para la sociedad. Esta dicotomía es la que hace peligrosa a la ‘inteligencia artificial’. La hipótesis del presente artículo sostiene que la ‘inteligencia artificial’ es artificial, mas no inteligente y que, llevada al nivel de una ‘inteligencia artificial general’, resulta, además, peligrosa para la humanidad. Usando una metodología descriptiva y teórica de la situación y una metodología comparativa de algunos avances tecnológicos ya existentes -como el móvil, la calculadora o los correctores de texto de Word- llegó al resultado de comprobar que en el reciente recorrido histórico de estos y otros avances tecnológicos, efectivamente, ellos han traído consigo unas consecuencias de mejora o de facilitación de nuestras vidas, y, a la vez, otras consecuencias que han menoscabado ciertas habilidades cognoscitivas que se tenían antes de la incursión de determinada tecnología. Es cierto, ‘la inteligencia artificial’ es algo que puede tener consecuencias nefastas para nuestra humanidad, sobre todo en el estadio de contar con una conciencia propia e independiente al ser humano. Esto último es un nivel al que aún no se ha llegado, pero el camino está trazándose, peligrosamente, hacia ese objetivo errado.
Downloads
Referências
FREUD, Sigmund (1998). El malestar en la cultura. (J. L. Etcheverry, Trad.) Barcelona: Círculo de lectores.
GALTON, Francis (1988). Herencia y eugenesia. (R. Á. Peláez, Trad.) Madrid: Alianza.
HIDALGO, Diego (2021). Anestesiados. La humanidad bajo el imperio de la tecnología. Madrid: Catarata.
LARSON, Erik (2022). El mito de la inteligencia artificial. Por qué las máquinas no pueden pensar como nosotros lo hacemos. (M. J. Krmpotic, Trad.) Barcelona: Shackleton Books.
LEE, Kai-Fu (2021). Superpotencias de la inteligencia artificial. (M. Vaquero, Trad.) Barcelona: Deusto.
PEIRANO, Marta (2020). El enemigo conoce el sistema. Manipulación de ideas, personas e influencias después de la economía de la atención. Barcelona: Debate.
PLATÓN (2004). Fedro. (J. D. Mateos, Trad.) Madrid: Mestas.
TEGMARK, Max (2022). Vida 3.0 Qué significa ser humano en la era de la inteligencia artificial. (M. P. Sánchez, Trad.) Navarra: Taurus.
TURING, Alan (2010). Maquinaria computacional e inteligencia. (C. F. Barassi, Trad.) Santiago de Chile: Universidad de Chile.
TURING, Alan (2012). ¿Puede pensar una máquina? (M. Garrido, Trad.) Oviedo: KRK.
Publicado
Como Citar
Edição
Secção
Licença
Direitos de Autor (c) 2023 Jesús Víctor Alfredo Contreras Ugarte
Este trabalho encontra-se publicado com a Licença Internacional Creative Commons Atribuição-NãoComercial-CompartilhaIgual 4.0.
Para fins da universalização e compartilhamento livre dos saberes a Revista do CONSINTER está indexada sob a Licença Creative Commons 4.0
Atribuição – Uso Não Comercial – Compartilhamento pela mesma licença 4.0 Brasil.
É permitido:
– Copiar, distribuir, exibir e executar a obra
– Criar obras derivadas
Sob as seguintes condições:
ATRIBUIÇÃO
Você deve dar crédito ao autor original, da forma especificada pelo autor ou licenciante.
USO NÃO COMERCIAL
Você não pode utilizar esta obra com finalidades comerciais.
COMPARTILHAMENTO PELA MESMA LICENÇA
Se você alterar, transformar ou criar outra obra com base nesta, você somente poderá distribuir a obra resultante sob uma licença idêntica a esta.
Para cada novo uso ou distribuição, você deve deixar claro para outro, os termos da licença desta obra.
Licença Jurídica (licença integral): https://creativecommons.org/licenses/by-nc-sa/4.0/deed.pt_BR