A intelixencia artificial, a xuízo

L. Cancela LA VOZ DE LA ESCUELA

ESCUELA

El logo de OpenAI frente a una fotografía de Elon Musk
El logo de OpenAI frente a una fotografía de Elon Musk Dado Ruvic | REUTERS

Estas semanas estase a celebrar en California o xuízo no que Elon Musk acusa a OpenAI de aproveitarse da IA para gañar diñeiro

05 may 2026 . Actualizado a las 05:05 h.

Estes días, nos Estados Unidos, está a levarse a cabo un xuízo moi mediático. Unha disputa nos tribunais de California entre dous dos homes máis poderosos deste mundo, e todo parte da intelixencia artificial.

Que está a pasar?

Elon Musk levou aos tribunais á empresa de intelixencia artificial OpenAI, dirixida por Sam Altman, acusándoa de desviarse da súa misión orixinal. Segundo Musk, a compañía que axudou a crear xa non actúa en beneficio da humanidade, senón que prioriza os intereses comerciais, especialmente tras a súa estreita relación con Microsoft. En teoría, cando se fundou OpenAl, a intención era crear unha organización sen fins de lucro que se centrase en crear unha intelixencia artificial aberta e segura.

Quen son Elon Musk e Sam Altman?

Elon Musk é un empresario coñecido por participar en varias empresas tecnolóxicas importantes: Tesla, de vehículos eléctricos, e de SpaceX, dedicada ao desenvolvemento de foguetes e exploración espacial. Tamén é propietario de X. Pola súa banda, Sam Altman é o director de OpenAI, organización á que pertence ChatGPT.

Como empeza o problema?

Temos que remontarnos ao 2015, cando se fundou OpenAI. Naquel momento, tanto Musk como Altman foron figuras clave. Musk foi un dos cofundadores e achegou diñeiro inicial, mentres que Altman asumiu un papel como directivo. Segundo contan, a idea que tiñan era crear unha intelixencia artificial que beneficiase a toda a humanidade, sen concentrar poder nunhas poucas empresas. Anos despois, sostén o propio Musk, comezou a percibir un cambio de rumbo na organización. Asegura que os seus outros dous compañeiros empezaron a priorizar a obtención de financiamento procedente de grandes empresas. Esta decisión fixo que Musk abandonase o proxecto e que actualmente acuse os responsables de converter a organización nunha máquina de xerar riqueza, en palabras do seu avogado.

Que din desde OpenAI?

A súa versión é totalmente distinta. Segundo eles, Musk non estaría a actuar só por desacordo co proxecto, senón tamén por interese e competencia directa. O avogado de OpenAI di que Musk apoiou o inicio da empresa porque desde o principio vía potencial económico. Tamén afirma que, nos seus primeiros anos, Musk fixo presión para que OpenAI convertérase nunha compañía co fin de lucro e mesmo propoñía xuntala con Tesla. Segundo esta versión, o seu obxectivo sería chegar a dirixir a empresa, algo que non ocorreu. Cando esas ideas non prosperaron, Musk marchouse e creou a súa empresa de intelixencia artificial. Isto amosaría que o conflito non é só ideolóxico, senón tamén competitivo, porque a súa empresa é do mesmo sector

E que pide Musk?

Que a tecnoloxía de OpenAI volva ser aberta e accesible, e que non estea controlada por intereses de diñeiro.

 

Usar chatbots de IA para todo fainos persoas máis vagas

Esta historia podería parecer que vos queda afastada, que non vos incumbe, salvo por un detalle. Open AI é a organización á que pertence ChatGPT. Este é un modelo de intelixencia artificial, un programa, por así dicilo, que entende o que escribes e xera unha resposta.

Por se a algún lle quedaba a dúbida, non hai unha persoa detrás que escribe as súas respostas. É unha máquina que funciona a partir de modelos adestrados con grandes cantidades de texto, o que lle permite detectar patróns na linguaxe e xerar respostas coherentes. E, como máquina que é, non é perfecta. Pode dar información incorrecta, incompleta ou nesgada.

Apareceu no 2022 e non se pode negar que supuxo toda unha revolución para o mundo dixital. Moitos a utilizan para facer os deberes ou para os seus traballos. Mesmo, o Consello Xeral do Poder Xudicial (CGPJ) sancionou recentemente cunha multa de mil euros a un maxistrado que empregou esta intelixencia artificial para redactar o borrador dunha sentenza.

Con todo, e aínda que pode ser útil nalgúns aspectos, hai dúbidas sobre o seu impacto na aprendizaxe, a privacidade ou o uso responsable da tecnoloxía. Por exemplo, segundo o estudo Your Brain on ChatGPT (o teu cerebro con ChatGPT), do MIT (as siglas en inglés do Instituto Tecnolóxico de Massachusetts), concluíu, por así dicilo, que nos fai máis vagos. O experimento comparou a actividade cerebral de quen traballa por si mesmos cos que se apoiaban en Google e cos que usaban ChatGPT. Así, observou unha gran diferenza. Aqueles que usaban IA tiñan unha actividade cerebral mínima con menos conexións que o resto dos grupos. O 80% non foi capaz de citar nada do que presuntamente escribira. O uso da IA tamén nos volve menos orixinais e creativos. Ademais, fai que corramos outro risco do que non somos conscientes: non ser obxectivos ou claros á hora de escribir. 

Actividade básica

Máquina ou non

Escribide nun papel acciones que fagades (recoñecer unha cara ou sentir tristeza). Despois, lede cada acción e opinade sobre si o pode facer unha máquina ou non. Xustificade a resposta.

-----------

As actividades están deseñadas por L. Cancela

 

Un mundo infinito con riscos

A nova IA de Antrhopic, Claude.
A nova IA de Antrhopic, Claude. Angel Colmenares | EFE

Resolver problemas, ler análises médicos ou facer os deberes, parece que o emprego desta nova tecnoloxía non ten barreiras

A intelixencia artificial pasou en moi pouco tempo de ser unha tecnoloxía que parecía de ciencia ficción a formar parte do día a día da sociedade actual. Moitos adolescentes a teñen instalada no seu móbil e, en moitos casos, é a forma que teñen para estudar, traballar ou buscar información. De feito, non é sorpresa para ninguén o uso que hai na contorna escolar. Sucede o mesmo no traballo. Pódese empregar para redactar correos, xerar ideas ou automatizar tarefas repetitivas. Con todo, chama a atención o uso privado que lle dan algunhas persoas. Teñen á IA como un asesor ou unha especie de consultor rápido para moitas dúbidas que lle van xurdindo no día. Hai quen lle pregunta cuestións de saúde, como síntomas ou mesmo sobre resultados de sangue. Outros a utilizan para pedir consellos financeiros, como aforrar, investir ou xestionar gastos; ou como unha compañía dixital: conversan con ela a diario ou cóntalle problemas.

En realidade, o uso da IA é infinito. Ata ten ferramentas capaces de xerar imaxes ou cancións .O problema? Que este uso tan estendido tamén ten consecuencias e debates importantes. Por unha banda, a súa normalización pode cambiar o mercado laboral.

De aquí ao 2030, crearanse 170 millóns de postos de traballo. Iso si, destruiranse 92 millóns en todo o mundo. Está claro, que a diferenza entre un e outro segue sendo positiva, pero haberá profesións que queden polo camiño. De feito, este novo mundo dixital xa conduciu a despedimentos, sobre todo nos Estados Unidos. Desde o 1 de xaneiro ata principios de abril, rexistráronse máis de 78.000 en empresas do sector tecnolóxico, maioritariamente nos centros de traballo americanos, aos que se suma o axuste de persoais anunciados por grandes compañías como Meta e Microsoft.

E, doutra banda, outro dos seus riscos é a desinformación. Aínda que estas ferramentas poden ser moi útiles, non sempre ofrecen respostas correctas. Se se utilizan sen contrastar a información, poden contribuír á difusión de erros ou interpretacións non adecuadas, especialmente en temas sensibles como saúde ou economía.

 

 

Debe existir unha materia que eduque en intelixencia artificial?

A crítica ao uso da intelixencia artificial é xusta. Está claro que altera a capacidade de reflexión naqueles que abusan dela. Pero, ao mesmo tempo, é unha ferramenta que parece que non vai desaparecer. Poderase regular mediante leis e, igual, nun futuro, é unha tecnoloxía de pago… con todo, o máis probable é que siga existindo nos próximos anos. Hai quen pensa que usar intelixencia artificial en clase é facer trampas, unha forma rápida de evitar o esforzo. Outros defenden que prohibila sería un erro, algo parecido ao que supoñería vetar Internet no seu momento.

Con este panorama, cabe preguntarse se os nenos, que serán futuros adultos, deben ter unha materia desde o colexio á universidade que se centre na intelixencia artificial. Xavier Donate, decano de Filosofía da Universidade de Santiago de Compostela, dicía nunha entrevista publicada en La Voz que a intelixencia artificial chegou para quedarse e que se educación non se pode ser bos usuarios: «A intelixencia artificial ten que estar nos programas de educación. A filosofía pode contribuír a un adecuado manexo na intelixencia artificial. Por exemplo, cun educador que faga de guía». Sexa como sexa, parece que os profesores teñen, cada vez, un labor máis importante. Xa non só deben ensinar literatura, senón que os mozos non dependan da tecnoloxía pero que a usen con criterio.

 

Actividade media

Habilidades sen máquinas

Tedes dez minutos para escribir sobre que vos gusta facer sen pantallas. Despois, escribide que habilidades tedes que non dependan da tecnoloxía e, para rematar, de que forma son diferentes do que pode facer unha máquina. Podedes lelo en alto.

 

ENTENDER

A sostibilidade, un dos retos que supón a IA

  • Cada vez que utilizas unha ferramenta de IA, estás a conectar con centros de datos xigantescos, cheos de servidores que procesan información sen parar. Estas instalacións consomen cantidades enormes de electricidade e necesitan sistemas de refrixeración para que non se quente en exceso. En moitos casos, iso implica tamén un uso intensivo de auga.
  • Ademais, a fabricación dos equipos necesarios, como os chips e servidores, require materiais e procesos industriais que tamén teñen impacto ambiental. E cando estes dispositivos quedan obsoletos, xeran residuos electrónicos difíciles de reciclar.
  • Adestrar un modelo avanzado de intelixencia artificial, pode requirir tanta enerxía como a que consomen centos ou miles de fogares durante un ano. O seu uso diario e masivo de millóns de persoas multiplica ese impacto.

 

PROFUNDAR

A ciberdelincuencia a escala, un perigo que xorde co avance da tecnoloxía

  • O 7 de abril, Anthropic, unha empresa tecnolóxica creada por xente que marchou de OpenAI, presentou o modelo de intelixencia artificial máis potente ata o de agora: Claude Mythos Preview. A diferenza doutras ferramentas que se fan virais en redes, esta non está aberta ao público. Só unhas poucas grandes compañías, como Apple ou Google, poden acceder a ela a través dun programa pechado.
  • Por que? Porque Mythos ten moitos riscos. Segundo o que se puido saber, é capaz de detectar fallos de seguridade extremadamente complexos en programas e sistemas operativos, mesmo erros que levaban décadas ocultos e que se crían imposibles de atopar. E, precisamente, algúns deses fallos poderían permitir a un atacante tomar o control dun sistema enteiro.
  • Isto é moi relevante. Case todo o que nos rodea depende de software, un sistema electrónico que fai posible que as máquinas funcionen: hospitais, bancos, transporte ou a electricidade. Se falla, o impacto pode ser enorme, pero aínda pode ser peor se un atacante pode acceder á súa información. Isto é o que preocupa con ferramentas como Mythos, que poderían facilitar que ataques moi potentes. É o que os expertos chaman «ciberdelincuencia a escala», é dicir, que sexa máis doado e máis daniño o crime dixital.
  • Agora, a dúbida que xorde é: se a seguridade de países enteiros depende deste tipo de tecnoloxía, quen a controla realmente? Hoxe en día, gran parte das ferramentas máis avanzadas de IA están en mans de empresas privadas, moitas delas estadounidenses. Isto significa que gobernos e sociedades dependen de compañías cuxos intereses poden ser económicos, estratéxicos ou mesmo políticos. Por iso estase a falar de que no futuro cada país, ou a UE en conxunto, vai ter unha «nube soberana» para protexerse.