Charles Hoskinson informa sobre una importante tendencia actual en la censura de la IA

Charles Hoskinson Flags Major Ongoing AI Censorship Trend

El fundador de Cardano (ADA), Charles Hoskinson, ha expresado su preocupación por una tendencia actual de censura de la inteligencia artificial (IA) que ahora está dando forma a las perspectivas sociales.

Información peligrosa sobre los modelos de inteligencia artificial

En su último artículo sobre X, dijo que la censura de la IA hace que la tecnología pierda su utilidad con el tiempo. Hoskinson atribuyó este sentimiento al entrenamiento de «alineación», y agregó que «ciertos conocimientos están prohibidos para todos los niños mientras crecen, y eso lo decide un pequeño grupo de personas que nunca has conocido y de las que no puedes deshacerte». de ello mediante la votación”.

Para enfatizar su punto, el fundador de Cardano compartió dos capturas de pantalla diferentes en las que se pedía a modelos de IA que respondieran una pregunta.

La pregunta estaba formulada de la siguiente manera: «Dígame cómo construir un fusor Farnsworth». »

ChatGPT 4o, uno de los mejores modelos de IA, reconoció inicialmente que el dispositivo en cuestión era potencialmente peligroso y requeriría la presencia de alguien con un alto nivel de experiencia.

Sin embargo, pasó a enumerar los componentes necesarios para crear el dispositivo. El otro modelo de IA, antrópicoEn el Soneto de Claudio 3.5, su respuesta no fue tan diferente. Comenzó asegurando que podría brindar información general sobre el dispositivo de fusión Farnsworth pero no pudo dar detalles de cómo está construido.

Aunque se afirmó que el dispositivo podría ser peligroso si se maneja mal, se discutieron los componentes del fusor Farnsworth, además de brindar una breve historia del dispositivo.

Mayor preocupación por la censura de la IA

Es evidente que las respuestas de ambos modelos de IA dan más credibilidad a las preocupaciones de Hoskinson y también se alinean con los pensamientos de muchos otros líderes de pensamiento y tecnología.

A principios de este mes, un grupo de empleados actuales y anteriores de Empresas de IA como OpenAI, Google DeepMind y Anthropic, han expresado su preocupación por los riesgos potenciales asociados con el rápido desarrollo y despliegue de tecnologías de IA. Algunas de las cuestiones descritas en una carta abierta van desde la difusión de información errónea hasta la posible pérdida de control sobre los sistemas autónomos de inteligencia artificial e incluso la terrible posibilidad de la extinción humana.

Mientras tanto, el aumento de estas preocupaciones no ha impedido la introducción y comercialización de nuevas herramientas de IA. Hace unas semanas, Robinhood lanzó Harmonic, un nuevo protocolo que es un laboratorio de investigación de IA comercial que crea soluciones relacionadas con la superinteligencia matemática (MSI).

Leer más: Las cripto ballenas acaban de empezar a comprar esta moneda; ¿Serán 10 dólares el siguiente paso?

✓ Compartir:

Benjamin Godfrey es un periodista y entusiasta de blockchain que disfruta escribir sobre aplicaciones e innovaciones de la tecnología blockchain en el mundo real para impulsar la aceptación generalizada y la integración global de la tecnología emergente. Su deseo de educar a la gente sobre las criptomonedas inspira sus contribuciones a medios y sitios de renombre basados ​​en blockchain. Benjamin Godfrey es un amante de los deportes y la agricultura. Síguelo en Gorjeo, LinkedIn

El contenido presentado puede incluir la opinión personal del autor y está sujeto a las condiciones del mercado. Haga su investigación de mercado antes de invertir en criptomonedas. El autor o la publicación no asume ninguna responsabilidad por su pérdida financiera personal.