18.8 C
Madrid
jueves, octubre 23, 2025
spot_img
spot_img

Cómo funciona realmente Chatgpt (y por qué ha sido tan cambiante)

En el pasado (y por «en el día», me refiero a finales de 2022, antiguamente de que los chatbots de IA explotara en la campo), herramientas como Google y Wolfram Alpha interactuaron con los usuarios a través de un campo de entrada de texto de una sola radio y proporcionaron resultados de texto. Google devolvió los resultados de búsqueda: una nómina de páginas web y artículos que (con suerte) proporcionarían información relacionada con las consultas de búsqueda. Wolfram Alpha generalmente proporcionó respuestas matemáticas y relacionadas con el prospección de datos.

ChatGPT, por el contrario, proporciona una respuesta basada en el contexto y la intención detrás de la pregunta de un sucesor. Google, por supuesto, ha cambiado su modo de respuesta. Ahora proporciona respuestas basadas en IA antiguamente de los resultados de la búsqueda, y es probable que continúe haciéndolo. Wolfram Alpha, por otro banda, usa IA detrás de campo para ayudarlo con sus cálculos, pero no proporciona respuestas basadas en IA.

Igualmente: Cómo usar ChatGPT: una prontuario para principiantes para el chatbot de IA más popular

Fundamentalmente, el poder de búsqueda de Google es su capacidad para realizar enormes búsquedas de bases de datos y proporcionar una serie de coincidencias. El poder de Wolfram Alpha es su capacidad para analizar preguntas relacionadas con datos y realizar cálculos.

El poder de Chatgpt (y el de casi cualquier otro chatbot de IA, como Claude, Copilot, Perplexity y Google Gemini) es la capacidad de analizar consultas y producir respuestas y resultados completamente desarrollados basados en la mayoría de la información basada en texto accesible digital del mundo. Algunos chatbots tienen restricciones basadas en cuándo dejaron de escanear información, pero la mayoría ahora puede consentir a Internet en vivo para tener en cuenta los datos actuales en sus respuestas.

En este artículo, veremos cómo ChatGPT puede producir esas respuestas completamente desarrolladas utilizando una tecnología señal inteligencia sintético generativa. Comenzaremos mirando las fases principales de la operación ChatGPT, luego cubriremos algunos componentes de cimentación de IA central que hacen que todo funcione.

Las dos fases principales de la operación de chatgpt

Usemos la búsqueda de Google (a diferencia de Google Gemini AI) como parecido nuevamente. Cuando le pide a Google Search que busque poco, probablemente sepa que no, en el momento en que pregunta, salga y busque toda la web para obtener respuestas. En su circunscripción, Google pesquisa su saco de datos para páginas que coincidan con esa solicitud. Google Search tiene dos fases principales: la etapa de araña y cosecha de datos, y la etapa de interacción/búsqueda del sucesor.

Igualmente: Los mejores chatbots de IA: chatgpt y otras alternativas divertidas para probar

En términos generales, ChatGPT y los otros chatbots de IA funcionan de la misma guisa. La etapa de cosecha de datos se denomina pre-entrenamiento, mientras que la etapa de respuesta al sucesor se conoce como inferencia. La nigromancia detrás de la IA generativa y la razón por la que ha explotado es que la forma en que los trabajos de pre-entrenamiento han demostrado ser enormemente escalables. Esa escalabilidad ha sido posible por innovaciones recientes en tecnología de hardware asequible y computación en la cúmulo.

LEER  El modo AI de Google puede ser la búsqueda de actualización que necesita desesperadamente: cómo probarlo gratis

Cómo funciona la IA previa al entrenamiento

En términos generales (porque meterse en detalles se referiría a los volúmenes), AIS pretrense utilizando dos enfoques principales: supervisados y no supervisados. La mayoría de los proyectos de IA hasta que la cosecha contemporáneo de sistemas de IA generativos como ChatGPT utilizara el enfoque supervisado.

Igualmente: Cómo hacer que ChatGPT proporcione fuentes y citas

El pre-entrenamiento supervisado es un proceso en el que un maniquí está entrenado en un conjunto de datos etiquetado, donde cada entrada está asociada con una salida correspondiente.

Por ejemplo, una IA podría ser capacitada en un conjunto de datos de conversaciones de servicio al cliente, donde las preguntas y quejas del sucesor están etiquetadas con las respuestas apropiadas del representante de servicio al cliente. Para entrenar a la IA, preguntas como «¿Cómo puedo restablecer mi contraseña?» Se proporcionaría como entrada del sucesor y respuestas como «Puede restablecer su contraseña visitando la página de configuración de la cuenta en nuestro sitio web y siguiendo las indicaciones», se proporcionaría como salida.

En un enfoque de entrenamiento supervisado, el maniquí militar está entrenado para ilustrarse una función de mapeo que puede asignar las entradas a las expectativas con precisión. Este proceso a menudo se usa en tareas de enseñanza supervisadas, como clasificación, regresión y etiquetado de secuencia.

Como puede imaginar, hay límites de cómo puede esquilar esto. Los entrenadores humanos tendrían que ir congruo allá para anticipar todas las entradas y expectativas. La capacitación podría transigir mucho tiempo y ser menguado en experiencia en la materia.

Igualmente: mis dos características favoritas de Chatgpt Plus y las cosas notables que puedo hacer con ellas

Pero como nos hemos cedido cuenta, ChatGPT tiene muy pocos límites en la experiencia en la materia. Puede pedirle que escriba un currículum para el presidente de personajes Miles O’Brien de Star Trek, haga que explique la física cuántica, escriba una aposento de código, produce una breve aposento de ficción y compare los estilos gobernantes de ex presidentes de los Estados Unidos.

Sería increíble anticipar todas las preguntas que se harían, por lo que no hay forma de que ChatGPT pueda activo sido entrenado con un maniquí supervisado. En su circunscripción, ChatGPT utiliza un pre-entrenamiento no supervisado, y este es el cambio de coyuntura.

El pre-entrenamiento no supervisado es el proceso por el cual un maniquí está entrenado en datos donde no se asocia ninguna salida específica con cada entrada. En cambio, el maniquí está capacitado para ilustrarse la estructura y los patrones subyacentes en los datos de entrada sin ninguna tarea en mente. Este proceso a menudo se usa en tareas de enseñanza no supervisadas, como la agrupación, la detección de anomalías y la reducción de la dimensionalidad. En el modelado de idiomas, el pre-entrenador no supervisado puede capacitar a un maniquí para comprender la sintaxis y la semántica del verbo natural para que el maniquí pueda ocasionar texto coherente y significativo en un contexto conversacional.

LEER  Uber finalmente lanza la función para priorizar la seguridad de las mujeres

Adicionalmente: ¿Chatgpt Plus en realidad vale $ 20 cuando la lectura gratuita ofrece tantas características premium?

Es aquí donde el conocimiento aparentemente ilimitado de Chatgpt se vuelve posible. Oportuno a que los desarrolladores no necesitan conocer las expectativas que provienen de las entradas, todo lo que tienen que hacer es descargar más y más información en el mecanismo de pre-entrenamiento de ChatGPT, que se fogosidad modelado de verbo basado en transformadores.

Igualmente: cómo las empresas de IA están recopilando en secreto datos de capacitación de la web (y por qué es importante)

Igualmente es aquí, en el despojos de datos en la IA, que los fabricantes de chatbot modernos han comenzado a encontrarse en problemas. Las compañías de IA han estado capacitando a sus IA sobre información con derechos de autor de otras compañías sin permiso. De hecho, algunos editores, como Ziff Davis (la empresa matriz de ZDNet) y el New York Times, están demandando a OpenAi por infracción de derechos de autor. Probablemente haya gastado el descargo de responsabilidad en ZDNet que dice: «Divulgación: Ziff Davis, la empresa matriz de ZDNet, presentó una demanda de abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA».

Este enfoque de entrenamiento universal hace que los chatbots sean más capaces. Pero el objetivo secundario es que están quitando el tráfico de las compañías y escritores que escribieron el contenido llamativo. Espere que este aspecto de la IA generativo se libra en los tribunales en los próximos primaveras.

Pero este artículo proxenetismo sobre la tecnología, así que pasemos a una tecnología esencia que hace posible la IA generativa …

Edificación del transformador

La cimentación del transformador es un tipo de red neuronal que se utiliza para procesar datos del verbo natural. Una red neuronal simula cómo funciona un cerebro humano procesando información a través de capas de nodos interconectados. Puedes pensar en una red neuronal como un equipo de hockey. Cada ludópata tiene un papel, pero pasan el disco de un banda a otro entre los jugadores con posiciones específicas, todo trabajando juntos para marcar el gol.

La cimentación del transformador procesa secuencias de palabras mediante el uso de «autoatención» para ponderar la importancia de las diferentes palabras en una secuencia al hacer predicciones. La autoatición es similar a cómo un catedrático podría mirar en dirección a antes en una oración o párrafo aludido para el contexto necesario para comprender una nueva palabra en un obra. El transformador analiza todas las palabras en una secuencia para comprender el contexto y las relaciones entre ellas.

Adicionalmente: cómo utilicé ChatGPT para arreglar rápidamente un complemento crítico: sin tocar una radio de código

LEER  El mejor software CRM de 2025: experto probado

El transformador está compuesto por varias capas, cada una con múltiples subcapas. Las dos subcapas principales son la capa de autoatimiento y la capa de avance. La capa de autoatención calcula la importancia de cada palabra en la secuencia, mientras que la capa de avance se aplica transformaciones no lineales a los datos de entrada. Estas capas ayudan al transformador a ilustrarse y comprender las relaciones entre las palabras en una secuencia.

Durante el entrenamiento, el transformador recibe datos de entrada, como una oración, y se le pide que haga una predicción basada en esa entrada. El maniquí se actualiza en función de qué tan proporcionadamente su predicción coincide con la salida actual. A través de este proceso, el transformador aprende a comprender el contexto y las relaciones entre las palabras en una secuencia, por lo que es una utensilio poderosa para tareas de procesamiento del verbo natural, como la traducción del verbo y la reproducción de texto.

Una cosa para memorar es que hay problemas en torno al potencial para que estos modelos generen contenido dañino o sesgado, ya que pueden ilustrarse patrones y sesgos presentes en los datos de capacitación. Las compañías que implementan estos modelos están tratando de proporcionar «rieles de guripa», pero esos rieles de guripa pueden causar problemas. Esas preocupaciones se deben a que diferentes personas tienen diferentes perspectivas. Un intento de organizar un sesgo basado en una escuela de pensamiento puede ser reclamado como sesgo por otra escuela de pensamiento. Esta situación dificulta el diseño de un chatbot universal porque la sociedad es compleja.

Igualmente: 7 Consejos avanzados de escritura de inmediato Chatgpt que necesita asimilar

Discutamos los datos que se alimentan primero en CHATGPT, y luego la etapa de interacción de sucesor de ChatGPT y verbo natural.

Conjuntos de datos de capacitación de Chatgpt

El conjunto de datos utilizado para entrenar chatgpt es enorme. ChatGPT se apoyo en poco llamado maniquí de idioma ilustre, o LLM. Tomemos un momento para aclarar Chatbot vs. LLM. Un chatbot es esencialmente una aplicación con una interfaz de sucesor. Se necesitan preguntas o indicaciones, los alimenta a un LLM y luego recupera las respuestas, las formatea y las presenta a un sucesor. Esencialmente, un chatbot es un caparazón de la interfaz de sucesor. Es el LLM el que proporciona la capacidad de IA en sí.

Los LLM vienen en una amplia variedad de nombres y versiones. En este momento, el principal chatgpt LLM es GPT-4O. Cuando ChatGPT irrumpió en la campo a principios de 2023, el LLM fue GPT-3. Hay algunos LLM, como O3 O3, que pasan más tiempo razonándose, mientras que otros son mejores para interactuar con los estilos de comunicación humana. Con el tiempo, los LLM mejoran y, como resultado, los chatbots mismos además se vuelven más capaces.

GPT es un siglas que cubre tres áreas: es generativo (g), lo que significa que genera resultados; Está pretrontrado (P), lo que significa que se apoyo en todos los datos que ingiere; y utiliza la cimentación del transformador
(function() {
window.zdconsent = window.zdconsent || {run:(),cmd:(),useractioncomplete:(),analytics:(),functional:(),social:()};
window.zdconsent.cmd = window.zdconsent.cmd || ();
window.zdconsent.cmd.push(function() {
!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=();t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)(0);
s.parentNode.insertBefore(t,s)}(window, document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘set’, ‘autoConfig’, false, ‘789754228632403’);
fbq(‘init’, ‘789754228632403’);
});
})();

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos