Ir al contenido principal

Las 35 preguntas más frecuentes en entrevistas sobre machine learning para 2026

Prepárate para tu entrevista con esta guía completa sobre preguntas relacionadas con el machine learning, que abarca desde conceptos básicos y algoritmos hasta temas avanzados y específicos de cada puesto.
Actualizado 28 ene 2026  · 15 min leer

En este artículo, hemos resumido algunas de las preguntas más comunes sobre machine learning que puedes encontrar al solicitar un puesto en el sector o al entrevistar a un candidato. Practicar estas preguntas y preparar las respuestas puede ayudarte a garantizar que la entrevista transcurra sin problemas. 

Desarrollar aplicaciones de IA

Aprende a crear aplicaciones de IA utilizando la API OpenAI.
Empieza a hacer Upskilling gratis

Preguntas básicas sobre machine learning para entrevistas de trabajo

Las preguntas básicas están relacionadas con la terminología, los algoritmos y las metodologías. Los entrevistadores hacen estas preguntas para evaluar los conocimientos técnicos del candidato.

¿Qué es el machine learning semisupervisado?

El aprendizaje semisupervisado es una combinación de aprendizaje supervisado y no supervisado. El algoritmo se entrena con una combinación de datos etiquetados y sin etiquetar. Por lo general, se utiliza cuando se dispone de un conjunto de datos etiquetados muy pequeño y un conjunto de datos sin etiquetar muy grande. 

En términos sencillos, el algoritmo no supervisado se utiliza para crear clústeres y, mediante el uso de datos etiquetados existentes, etiquetar el resto de los datos sin etiquetar. Un algoritmo semisupervisado asume la hipótesis de continuidad, la hipótesis de agrupamiento y la hipótesis de variedad.

Por lo general, se utiliza para ahorrar el coste de adquirir datos etiquetados. Por ejemplo, la clasificación de secuencias proteicas, el reconocimiento automático del habla y los coches autónomos.  

¿Cómo se elige el algoritmo que se va a utilizar para un conjunto de datos?

Además del conjunto de datos, necesitas un caso de uso empresarial o requisitos de aplicación. Puedes aplicar el aprendizaje supervisado y no supervisado a los mismos datos. 

En general:

  • Los algoritmos de aprendizaje supervisado requieren datos etiquetados.
    • Los algoritmos de regresión requieren objetivos numéricos continuos.
    • Los algoritmos de clasificación requieren objetivos categóricos.
  • Los algoritmos de aprendizaje no supervisado requieren datos sin etiquetar.
  • El aprendizaje semisupervisado requiere la combinación de conjuntos de datos etiquetados y sin etiquetar. 
  • Los algoritmos de aprendizaje por refuerzo requieren datos sobre el entorno, el agente, el estado y la recompensa. 

Elección del algoritmo de machine learning

Imagen de thecleverprogrammer

Aprende los fundamentos del machine learning con nuestro curso. 

Explica el algoritmo K Nearest Neighbor.

El K Nearest Neighbor (KNN) es un clasificador de aprendizaje supervisado. Utiliza la proximidad para clasificar etiquetas o predecir la agrupación de puntos de datos individuales. Podemos utilizarlo para regresión y clasificación. El algoritmo KNN es no paramétrico, lo que significa que no establece ninguna hipótesis subyacente sobre la distribución de los datos. 

En el clasificador KNN:

  • Encontramos los K vecinos más cercanos al punto blanco. En el ejemplo siguiente, elegimos k=5. 
  • Para encontrar los cinco vecinos más cercanos, calculamos la distancia euclidiana entre el punto blanco y los demás. A continuación, elegimos los 5 puntos más cercanos al punto blanco. 
  • Hay tres puntos rojos y dos verdes en K=5. Dado que el rojo tiene mayoría, le asignamos una etiqueta roja. 

Visualización del vecino más cercano K.

Imagen de la historia de desarrollo de Codesigner. 

Aprende todo sobre los modelos de clasificación y regresión del aprendizaje supervisado con un curso breve. 

¿Qué es la importancia de las características en el machine learning y cómo se determina?

La importancia de las características se refiere a las técnicas que asignan una puntuación a las características de entrada en función de su utilidad para predecir una variable objetivo. Desempeña un papel fundamental a la hora de comprender la estructura subyacente de los datos, el comportamiento del modelo y hacer que este sea más interpretable.

Existen varios métodos para determinar la importancia de las características:

  1. Importancia basada en el modelo: Algunos algoritmos, como los árboles de decisión y los bosques aleatorios, proporcionan métodos integrados para evaluar la importancia de las características. Por ejemplo, los bosques aleatorios calculan la disminución de la impureza de los nodos ponderada por la probabilidad de llegar a ese nodo, promediada entre todos los árboles.
  2. Importancia de la permutación: Esto implica mezclar variables individuales en el conjunto de validación y observar el efecto en el rendimiento del modelo. Una disminución significativa en el rendimiento del modelo indica una gran importancia.
  3. SHAP (Explicaciones aditivas de Shapley): Este enfoque utiliza la teoría de juegos para medir la contribución de cada característica a la predicción en un modelo complejo. Los valores SHAP proporcionan una visión profunda del comportamiento del modelo y son especialmente útiles para modelos complejos, como las máquinas de refuerzo de gradiente o las redes neuronales.
  4. Coeficientes de correlación: Las medidas estadísticas simples, como la correlación de Pearson o Spearman, pueden proporcionar información sobre la relación lineal entre cada característica y la variable objetivo.

Comprender la importancia de las características es fundamental para optimizar los modelos, reducir el sobreajuste mediante la eliminación de características no informativas y mejorar la interpretabilidad de los modelos, especialmente en ámbitos en los que es fundamental comprender el proceso de decisión del modelo.

¿Qué es el sobreajuste en el machine learning y cómo se puede evitar?

El sobreajuste se produce cuando un modelo funciona bien con los datos de entrenamiento, pero no logra generalizarse a datos desconocidos porque ha memorizado los datos de entrenamiento en lugar de aprender los patrones subyacentes. Se puede evitar:

  • Utilizando técnicas de validación cruzada.
  • Aplicación de regularización (L1, L2).
  • Reducción de la complejidad del modelo.
  • Recopilar más datos de entrenamiento o utilizar el aumento de datos.

¿Cuál es la diferencia entre el aprendizaje supervisado y el no supervisado?

  • Aprendizaje supervisado: El modelo se entrena con datos etiquetados, en los que se conoce la variable objetivo. Algunos ejemplos son la clasificación y la regresión.
  • Aprendizaje no supervisado: El modelo se entrena con datos sin etiquetar para encontrar patrones o agrupaciones. Algunos ejemplos son la agrupación y la reducción de dimensionalidad.

¿Qué es una matriz de confusión y por qué es útil?

Una matriz de confusión es una tabla que se utiliza para evaluar el rendimiento de un modelo de clasificación. Muestra el recuento de verdaderos positivos, verdaderos negativos, falsos positivos y falsos negativos. Es útil para calcular métricas como la exactitud, la precisión, la recuperación y la puntuación F1.

¿Cuál es la diferencia entre los modelos paramétricos y no paramétricos?

Modelos paramétricos: Estos hacen suposiciones sobre la distribución subyacente de los datos y tienen un número fijo de parámetros (por ejemplo, regresión lineal).

Modelos no paramétricos: No hacen suposiciones sobre la distribución de los datos y pueden adaptarse a la complejidad a medida que se añaden más datos (por ejemplo, K-Nearest Neighbors).

¿Qué es la compensación entre sesgo y varianza en el machine learning?

La compensación entre sesgo y varianza se refiere al equilibrio entre la capacidad de un modelo para captar patrones complejos (bajo sesgo) y su sensibilidad a las fluctuaciones en los datos de entrenamiento (baja varianza). Un buen modelo logra un equilibrio al minimizar tanto el sesgo como la varianza para evitar el subajuste y el sobreajuste.

Preguntas técnicas sobre machine learning para entrevistas de trabajo

La sesión de entrevista técnica se centra más en evaluar tus conocimientos sobre los procesos y tu capacidad para manejar la incertidumbre. El responsable de contratación te hará preguntas sobre machine learning relacionadas con el procesamiento de datos, el entrenamiento y la validación de modelos, y algoritmos avanzados.

¿Es cierto que hay que escalar los valores de las características cuando varían mucho?

Sí. La mayoría de los algoritmos utilizan la distancia euclídea entre puntos de datos, y si el valor de la característica varía mucho, los resultados serán bastante diferentes. En la mayoría de los casos, los valores atípicos hacen que los modelos de machine learning funcionen peor en el conjunto de datos de prueba. 

También utilizamos el escalado de características para reducir el tiempo de convergencia. El descenso por gradiente tardará más en alcanzar los mínimos locales cuando las características no estén normalizadas. 

Gradiente sin y con escalado

Gradiente sin y con escalado | Quora

Las habilidades en ingeniería de características tienen una gran demanda. Puedes aprender todo sobre el tema realizando un curso de DataCamp, como Ingeniería de características para el machine learning en Python.  

El modelo que has entrenado tiene un sesgo bajo y una varianza alta. ¿Cómo lo manejarías?

El sesgo bajo se produce cuando el modelo predice valores cercanos al valor real. Está imitando el conjunto de datos de entrenamiento. El modelo no tiene generalización, lo que significa que si se prueba con datos desconocidos, dará malos resultados. 

Bajo sesgo y alta varianza

Bajo sesgo y alta varianza | Autor

Para solucionar estos problemas, utilizaremos algoritmos de bagging, ya que dividen un conjunto de datos en subconjuntos mediante muestreo aleatorio. A continuación, generamos conjuntos de modelos utilizando estas muestras con un único algoritmo. Después, combinamos la predicción del modelo utilizando la clasificación por votación o el promedio.

Para una alta varianza, podemos utilizar técnicas de regularización. Se penalizaron los coeficientes de los modelos más altos para reducir la complejidad del modelo. Además, podemos seleccionar las características más importantes del gráfico de importancia de las características y entrenar el modelo. 

¿Qué es la deriva del modelo y cómo se detecta en producción?

La deriva del modelo se produce cuando el rendimiento de un modelo se degrada con el tiempo debido a que los datos del mundo real cambian en comparación con los datos de entrenamiento. Hay dos tipos principales:

  • Desviación de datos (cambio de covariables): Cambios en la distribución de los datos de entrada (por ejemplo, los usuarios comienzan a subir imágenes por la noche en lugar de durante el día). Esto se detecta supervisando la distancia estadística (como la divergencia KL) entre las distribuciones de características de entrenamiento y producción.
  • Desviación conceptual: La relación entre entradas y salidas cambia (por ejemplo, las definiciones de «spam» cambian con el tiempo). Esto se detecta supervisando las métricas empresariales posteriores (como la tasa de clics) o la precisión de la información sobre el terreno, si está disponible.

¿Qué técnica de validación cruzada sugerirías para un conjunto de datos de series temporales y por qué?

La validación cruzada se utiliza para evaluar el rendimiento del modelo de forma sólida y evitar el sobreajuste. Por lo general, las técnicas de validación cruzada seleccionan muestras aleatoriamente de los datos y las dividen en conjuntos de datos de entrenamiento y prueba. El número de divisiones se basa en el valor K. 

Por ejemplo, si K = 5, habrá cuatro pliegues para el tren y uno para la prueba. Se repetirá cinco veces para medir el modelo realizado en pliegues separados.  

No podemos hacerlo con un conjunto de datos de series temporales porque no tiene sentido utilizar el valor del futuro para pronosticar el valor del pasado. Existe una dependencia temporal entre las observaciones, y solo podemos dividir los datos en una dirección, de modo que los valores del conjunto de datos de prueba se encuentren después del conjunto de entrenamiento. 

El diagrama muestra que la división en k partes de los datos de series temporales es unidireccional. Los puntos azules son el conjunto de entrenamiento, el punto rojo es el conjunto de prueba y los blancos son datos sin usar. Como podemos observar en cada iteración, avanzamos con el conjunto de entrenamiento, mientras que el conjunto de prueba permanece delante del conjunto de entrenamiento, sin ser seleccionado aleatoriamente. 

Validación cruzada de series temporales

Validación cruzada de series temporales | Guía de programación R de UC Business Analytics

Aprende sobre la manipulación, el análisis, la visualización y el modelado de datos de series temporales con el curso Series temporales con Python.

Preguntas de entrevista sobre ingeniería de visión artificial

La mayoría de los puestos de trabajo relacionados con el machine learning que se ofrecen en LinkedIn, Glassdoor e Indeed son específicos para cada función. Por lo tanto, durante la entrevista, se centrarán en preguntas específicas sobre el puesto. Para el puesto de ingeniero de visión artificial, el responsable de contratación se centrará en cuestiones relacionadas con el procesamiento de imágenes. 

¿Por qué las entradas en los problemas de visión artificial pueden ser tan grandes? Explícalo con un ejemplo. 

Imagina una imagen de 250 x 250 y una primera capa oculta totalmente conectada con 1000 unidades ocultas. Para esta imagen, las características de entrada son 250 X 250 X 3 = 187 500, y la matriz de pesos en la primera capa oculta será una matriz dimensional de 187 500 X 1000. Estas cifras son enormes para el almacenamiento y el cálculo, y para combatir este problema, utilizamos operaciones de convolución. 

Aprende procesamiento de imágenes con un breve curso de Procesamiento de imágenes en Python.

Cuando tengas un conjunto de datos pequeño, sugiere una forma de entrenar una red neuronal convolucional.  

Si no dispones de datos suficientes para entrenar una red neuronal convolucional, puedes utilizar el aprendizaje por transferencia para entrenar tu modelo y obtener resultados de vanguardia. Necesitas un modelo preentrenado que haya sido entrenado con un conjunto de datos general pero más amplio. Después, lo ajustarás con datos más recientes entrenando las últimas capas de los modelos. 

El aprendizaje por transferencia permite a los científicos de datos entrenar modelos con datos más pequeños utilizando menos recursos, computación y almacenamiento. Puedes encontrar fácilmente modelos preentrenados de código abierto para diversos casos de uso, y la mayoría de ellos tienen una licencia comercial, lo que significa que puedes utilizarlos para crear tu aplicación. 

Aprendizaje por transferencia

Aprendizaje por transferencia por purnasai gudikandula

¿Qué es el algoritmo de detección de objetos de última generación YOLO y cómo ha evolucionado su arquitectura recientemente?

YOLO es un algoritmo de detección de objetos basado en redes neuronales convolucionales, y puede proporcionar resultados en tiempo real. El algoritmo YOLO requiere una sola pasada hacia adelante a través de la CNN para reconocer el objeto. Predice tanto las probabilidades de las distintas clases como los recuadros delimitadores. 

El modelo se entrenó para detectar diversos objetos, y las empresas están utilizando el aprendizaje por transferencia para ajustarlo a nuevos datos para aplicaciones modernas, como la conducción autónoma, la preservación de la vida silvestre y la seguridad. 

Arquitectura del modelo YOLOv10

Arquitectura del modelo YOLOv10 | ResearchGate

Preguntas de entrevista sobre ingeniería de PNL

El procesamiento del lenguaje natural (PLN) es uno de los pilares de las aplicaciones modernas de inteligencia artificial. Prepárate para preguntas que tienden un puente entre la teoría lingüística y la aplicación práctica, y que ponen a prueba tu capacidad para procesar, analizar y extraer significado de datos de texto no estructurados utilizando tanto técnicas clásicas como enfoques modernos de aprendizaje profundo.

¿Qué es el análisis sintáctico?

El análisis sintáctico, también conocido como análisis sintáctico o parsing, es un análisis de texto que nos revela el significado lógico que hay detrás de una oración o parte de una oración. Se centra en la relación entre las palabras y la estructura gramatical de las oraciones. También se puede decir que es el proceso de análisis del lenguaje natural mediante el uso de reglas gramaticales. 

Análisis sintáctico

Análisis sintáctico | researchgate

¿Qué son el stemming y la lematización?

La derivación y la lematización son técnicas de normalización que se utilizan para minimizar la variación estructural de las palabras en una oración. 

La derivación elimina los afijos añadidos a la palabra y la deja en su forma básica. Por ejemplo, cambiar a Chang. 

Es ampliamente utilizado por los motores de búsqueda para optimizar el almacenamiento. En lugar de almacenar todas las formas de las palabras, solo almacena las raíces. 

La lematización convierte la palabra en su forma lema. El resultado es la raíz de la palabra en lugar del tallo. Tras la lematización, obtenemos la palabra válida que significa algo. Por ejemplo, Cambiar para cambiar.

Derivación morfológica frente a lematización

Derivación frente a Lematización | Autor

¿Cuáles son las técnicas modernas para optimizar la velocidad de inferencia de LLM en producción?

La optimización de transformadores grandes requiere abordar tanto el ancho de banda de la memoria como los cuellos de botella informáticos:

  • Cuantización: Reducción del peso de los modelos de FP16 (16 bits) a INT8 o INT4 con una pérdida mínima de precisión. Esto permite que los modelos más grandes quepan en una memoria GPU más pequeña.
  • PagedAttention (vLLM): Una técnica de gestión de memoria que trata la caché KV (clave-valor) como páginas de memoria virtual, lo que permite un rendimiento entre 2 y 4 veces superior al eliminar la fragmentación de la memoria.
  • Decodificación especulativa: Utilizar un pequeño modelo «borrador» para predecir rápidamente los siguientes tokens, que luego se verifican en paralelo mediante el modelo grande. Esto aprovecha el hecho de que la lectura/escritura de memoria suele ser más lenta que el cálculo para tokens individuales.

Aprende los conceptos básicos del PLN completando el programa «Procesamiento del lenguaje natural en Python ». 

Preguntas de la entrevista para el Máster en Ingeniería

Dado que los LLM dominan el panorama actual de la IA, los entrevistadores dan prioridad a los candidatos que saben cómo implementarlos de forma eficaz. Esta sección se centra en algunos de los mayores retos prácticos de ingeniería de 2026.

¿Qué es una ventana de contexto LLM y cómo se gestionan las tareas que requieren más contexto del que el modelo puede asumir de una sola vez?

La ventana de contexto de un LLM es la cantidad máxima de texto (medida en tokens) que el modelo puede considerar a la vez al generar una respuesta, y limita directamente la cantidad de «memoria de trabajo» que el modelo tiene efectivamente.

A pesar de que las ventanas de contexto grandes son cada vez más comunes, el rendimiento y el coste no escalan de forma lineal: las indicaciones largas aumentan la latencia y pueden seguir provocando problemas de fiabilidad cuando la información relevante está oculta en medio del contexto.

En las entrevistas, respondía explicando estrategias prácticas para tareas de documentos largos:

  • Utiliza la fragmentación (divide los documentos en secciones semánticamente significativas) y recupera solo los fragmentos más relevantes para una pregunta determinada.
  • Prefiere la generación aumentada por recuperación (RAG) cuando necesites una base factual y una recuperación específica, en lugar de enviar un documento completo cada vez, lo que puede reducir los costes y evitar el comportamiento de «pérdida en el medio».
  • Utiliza resúmenes o notas jerárquicas (resumen de secciones → resumen de resúmenes) cuando necesites una visión global y, a continuación, recupera los detalles cuando lo necesites.

¿Cómo se mitigan las alucinaciones en los modelos de lenguaje grandes?

Las alucinaciones se producen cuando un LLM genera información plausible pero objetivamente incorrecta. En 2026, la mitigación requiere un enfoque multifacético:

  • Generación aumentada por recuperación (RAG): Basar el modelo obligándote a responder únicamente a partir de documentos recuperados de una base de conocimientos fiable.
  • Ingeniería rápida: Técnicas como Chain-of-Thought (pedir al modelo que explique su razonamiento paso a paso) y Few-Shot Prompting (proporcionar ejemplos verificados) reducen significativamente los errores.
  • Puntuación de confianza y coherencia interna: Generar varias respuestas para la misma pregunta y seleccionar la más coherente, o pedir al modelo que evalúe su propio nivel de confianza antes de responder.
  • Barandillas: Implementación de capas de posprocesamiento (como NeMo Guardrails) para verificar los resultados según reglas definidas antes de mostrarlos al usuario.

¿Cuándo se debe elegir la generación aumentada por recuperación (RAG) en lugar del ajuste fino?

Esta es una clásica cuestión de «compensación». La decisión depende de la actualidad de los datos y la especificidad del dominio:

  • Elige RAG cuando: Necesitas el modelo para acceder a información actualizada (por ejemplo, cotizaciones bursátiles, noticias recientes) o datos privados que cambian con frecuencia. RAG es más barato y reduce las alucinaciones porque proporciona al modelo la respuesta exacta en el contexto.
  • Elige Ajuste fino cuando: Necesitas que el modelo aprenda uncomportamiento específico, estilo o formato (por ejemplo, hablar como un pirata o escribir código en un lenguaje interno propietario). El ajuste fino integra el conocimiento en los pesos, pero no resuelve el problema del «corte de conocimiento».
  • Enfoque híbrido: En muchos sistemas de producción, ajustas un modelo para que comprenda la jerga específica del dominio y luego utilizas RAG para alimentarlo con los datos más recientes.

La cuestión se trata con más detalle en nuestro blog sobre RAG frente a ajuste fino.

Preguntas de entrevista sobre ingeniería de aprendizaje por refuerzo

El aprendizaje por refuerzo (RL) aborda problemas en los que un agente aprende interactuando con un entorno en lugar de a partir de conjuntos de datos estáticos. Prepárate para hablar sobre cómo funciona RL y explicar conceptos básicos como las políticas.

¿Cuáles son los pasos que se siguen en un algoritmo típico de aprendizaje por refuerzo?

El aprendizaje por refuerzo utiliza el método de prueba y error para alcanzar objetivos. Es un algoritmo orientado a objetivos y aprende del entorno dando los pasos correctos para maximizar la recompensa acumulada. 

En el aprendizaje por refuerzo típico:

  1. Al principio, el agente recibe el estado cero del entorno.
  2. En función del estado, el agente tomará una medida.
  3. El estado ha cambiado y el agente se encuentra en un nuevo lugar del entorno.
  4. El agente recibe la recompensa si ha realizado la acción correcta.
  5. El proceso se repetirá hasta que el agente haya aprendido la mejor ruta posible para alcanzar el objetivo, maximizando las recompensas acumuladas.

Marco de aprendizaje por refuerzo

Marco de aprendizaje por refuerzo | Autor

¿Cuál es la diferencia entre el aprendizaje fuera de la política y el aprendizaje dentro de la política?

Los algoritmos de aprendizaje sobre políticas evalúan y mejoran la misma política para actuar y actualizarla. En otras palabras, la política que se utiliza para actualizar y la política que se utiliza para tomar medidas son las mismas. 

Política de objetivos == Política de comportamiento

Los algoritmos basados en políticas son Sarsa, Monte Carlo para políticas, iteración de valores e iteración de políticas.

Los algoritmos de aprendizaje fuera de política son completamente diferentes, ya que la política actualizada es diferente de la política de comportamiento. Por ejemplo, en el aprendizaje Q, el agente aprende de una política óptima con la ayuda de una política codiciosa y actúa utilizando otras políticas. 

Política objetivo != Política de comportamiento

Caso dentro de la política frente a caso fuera de la política

En política frente a Caso fuera de política | Stack Exchange sobre inteligencia artificial

¿Por qué necesitamos el aprendizaje «profundo» Q?

El aprendizaje simple Q es genial. Resuelve el problema a pequeña escala, pero a gran escala fracasa. 

Imagina que el entorno tiene 1000 estados y 1000 acciones por estado. Necesitaremos una tabla Q con millones de celdas. Para jugar al ajedrez y al Go se necesitará una tabla aún más grande. Aquí es donde el aprendizaje profundo Q viene al rescate. 

Utiliza una red neuronal para aproximar la función del valor Q. La receta de las redes neuronales establece como entrada y salida el valor Q de todas las acciones posibles. 

Red Q profunda para la conducción autónoma

Red Q profunda para la conducción autónoma | ResearchGate

Preguntas para ingenieros de machine learning de FAANG

A continuación, te presentamos algunas preguntas que te podrían hacer en una entrevista de trabajo en algunas de las principales empresas tecnológicas: 

¿Cuál es la interpretación del área ROC bajo la curva?

Las características operativas del receptor (ROC) muestran la relación entre sensibilidad y especificidad. 

  • Sensibilidad: es la probabilidad de que el modelo prediga un resultado positivo cuando el valor real también es positivo. 
  • Especificidad: es la probabilidad de que el modelo prediga un resultado negativo cuando el valor real también es negativo.

La curva se grafica utilizando la tasa de falsos positivos (FP/(TN + FP)) y la tasa de verdaderos positivos (TP/(TP + FN)).

El área bajo la curva (AUC) muestra el rendimiento del modelo. Si el área bajo la curva ROC es 0,5, entonces nuestro modelo es completamente aleatorio. El modelo con un AUC cercano a 1 es el mejor modelo.

  curva ROC

Curva ROC por Hadrien Jean

¿Cómo evalúan los modelos de IA generativa cuando no existe una única «verdad fundamental»?

A diferencia de la clasificación (donde una respuesta es correcta o incorrecta), la GenAI a menudo requiere una evaluación humana o marcos de «LLM como juez»:

  • Métricas sin referencia: Utilizar un modelo más potente (como GPT-4) para evaluar la respuesta de un modelo más pequeño en función de criterios como «utilidad», «seguridad» y «coherencia».
  • RAGAS (Evaluación de la generación aumentada por recuperación): Un marco estándar que mide específicamente la «fidelidad» (¿la respuesta proviene del contexto?) y la «pertinencia de la respuesta» (¿responde a la pregunta del usuario?).
  • Evaluación humana (clasificación Elo): Para la validación final, comparar los resultados de dos modelos uno al lado del otro (prueba A/B) y calcular una clasificación Elo, similar a la tabla de clasificación de LMArena.

¿Cuáles son los métodos para reducir la dimensionalidad?

Para la reducción de dimensionalidad, podemos utilizar métodos de selección o extracción de características. 

La selección de características es un proceso que consiste en seleccionar las características óptimas y descartar las irrelevantes. Utilizamos métodos de filtro, envoltura e incrustación para analizar la importancia de las características y eliminar las menos importantes con el fin de mejorar el rendimiento del modelo. 

La extracción de características transforma el espacio con múltiples dimensiones en un espacio con menos dimensiones. No se pierde información durante el proceso y se utilizan menos recursos para procesar los datos. Las técnicas de extracción más comunes son el análisis discriminante lineal (LDA), el PCA kernel y el análisis discriminante cuadrático.

¿Cómo se determinan los umbrales para un clasificador?

En el caso de un clasificador de spam, un modelo de regresión logística devolverá la probabilidad. O bien utilizamos la probabilidad de 0,8999 o la convertimos en clase (spam/no spam) utilizando un umbral. 

Por lo general, el umbral de un clasificador es 0,5, pero en algunos casos es necesario ajustarlo para mejorar la precisión. El umbral de 0,5 significa que si la probabilidad es igual o superior a 0,5, se trata de spam, y si es inferior, no lo es.  

Para encontrar el umbral, podemos utilizar curvas de precisión-recuerdo y curvas ROC, búsqueda por cuadrícula y cambiar manualmente el valor para obtener un mejor CV.  

Conviértete en un ingeniero profesional de machine learning completando el programa de Científico de machine learning con Python

¿Cuáles son los supuestos de la regresión lineal?

La regresión lineal se utiliza para comprender la relación entre las características (X) y el objetivo (y). Antes de entrenar el modelo, debemos cumplir con algunos requisitos:

  1. Los residuos son independientes. 
  2. Existe una relación lineal entre la variable independiente X y la variable dependiente y. 
  3. Varianza residual constante en todos los niveles de X.
  4. Los residuos se distribuyen normalmente. 

Nota: los residuos en la regresión lineal son la diferencia entre los valores reales y los valores previstos. 

Escribe una función find_bigrams que tome una cadena y devuelva una lista con todos los bigramas.

Durante las entrevistas de programación, te harán preguntas sobre problemas de machine learning, pero en algunos casos evaluarán tus conocimientos de Python haciéndote preguntas generales sobre programación. Conviértete en un programador experto en Python siguiendo el programa de formación para programadores de Python

Crear una función bigram es bastante fácil. Debes utilizar dos bucles con la función zip. 

  1. En la función bigram, tomamos una lista de la oración como entrada.
  2. Crear un bucle para acceder a una sola frase
  3. Bajar y dividir la frase en una lista de palabras
  4. Usar zip para crear una combinación de la palabra anterior y la siguiente.
  5. Añadir la salida al resultado 
  6. Imprimir los resultados.

Es bastante fácil si desglosas el problema y utilizas funciones zip. 

def bigram(text_list:list):
    result = []
    for ls in text_list:
        words = ls.lower().split()
        for bi in zip(words, words[1:]):
            result.append(bi)
    return result
text = ["Data drives everything", "Get the skills you need for the future of work"]
print(bigram(text))

Resultados: 

[('Data', 'drives'), ('drives', 'everything'), ('Get', 'the'), ('the', 'skills'), ('skills', 'you'), ('you', 'need'), ('need', 'for'), ('for', 'the'), ('the', 'future'), ('future', 'of'), ('of', 'work')]

¿Qué es la función de activación en el machine learning?

La función de activación es una transformación no lineal en las redes neuronales. Pasamos la entrada por la función de activación antes de pasarla a la siguiente capa. 

El valor de entrada neto puede ser cualquier valor entre -inf y +inf, y la neurona no sabe cómo limitar los valores, por lo que no puede decidir el patrón de disparo. La función de activación decide si una neurona debe activarse o no para limitar los valores de entrada netos.  

Tipos más comunes de funciones de activación:

  • Función escalonada
  • Función sigmoide
  • ReLU
  • Leaky ReLu 

¿Cómo crearías una recomendación de restaurantes en Facebook?

La respuesta depende completamente de ti. Pero antes de responder, debes considerar qué objetivo empresarial deseas alcanzar para establecer una métrica de rendimiento y cómo vas a obtener los datos. 

En un diseño típico de sistema de machine learning, vosotros:

  • Recopilar, limpiar y analizar los datos.
  • Realizar ingeniería de características
  • Selecciona una metodología, un algoritmo o un modelo de machine learning.
  • Entrenar y evaluar el rendimiento en conjuntos de datos de prueba y validación.
  • Optimiza los procesos e implementa el modelo en producción.

Debes asegurarte de centrarte en el diseño, más que en la teoría o la arquitectura del modelo. Asegúrate de hablar sobre la inferencia del modelo y cómo mejorarla aumentará los ingresos generales. 

Además, explica por qué elegiste una metodología en lugar de otra. 

Aprende más sobre cómo crear sistemas de recomendación realizando un curso en DataCamp.

Dadas dos cadenas A y B, escribe una función can_shift que devuelva si A se puede desplazar un número determinado de posiciones para obtener B.

Resolver retos de programación y mejorar tus habilidades en Python aumentará tus posibilidades de superar la fase de la entrevista de programación. 

Antes de lanzarte a resolver un problema, debes comprender la pregunta. Simplemente tienes que crear una función booleana que devuelva True si, al desplazar las letras de la cadena B, obtienes la cadena A.  

A = 'abid'
B = 'bida'
can_shift(A, B) == True
  • Devuelve falso si la longitud de la cadena no es similar. 
  • Recorre el rango de longitud de la cadena A.
  • Crea mut_a para crear varias combinaciones de caracteres utilizando la cadena A.
  • Durante el bucle, si mut_a es igual a la cadena B, devuelve True; en caso contrario, devuelve False.  
def can_shift(a, b):

    if len(a) != len(b):
        return False

    for i in range(len(a)):
        mut_a = a[i:] + a[:i]
        if mut_a == b:
            return True

    return False


A = 'abid'
B = 'bida'
print(can_shift(A, B))
>>> True

¿Qué es el aprendizaje conjunto?

El aprendizaje conjunto se utiliza para combinar los conocimientos de múltiples modelos de machine learning con el fin de mejorar la precisión y las métricas de rendimiento. 

Métodos de conjunto simples:

  • Media/promedio: calculamos la media de las predicciones de varios modelos de alto rendimiento.
  • Media ponderada: asignamos diferentes ponderaciones a los modelos de machine learning en función del rendimiento y luego los combinamos.  

Métodos avanzados de conjunto:

  • El ensacado se utiliza para minimizar los errores de varianza. Crea aleatoriamente el subconjunto de datos de entrenamiento y lo entrena en los modelos. La combinación de modelos reduce la varianza y los hace más fiables en comparación con un modelo único. 
  • El refuerzo se utiliza para reducir los errores de sesgo y producir modelos predictivos superiores. Es una técnica iterativa conjunta que ajusta los pesos basándose en la última clasificación. Los algoritmos de refuerzo dan más peso a las observaciones que el modelo anterior predijo de forma inexacta.

Embolsado y refuerzo

Bagging and Boosting by Fernando López

Aprende más sobre promedios, agrupación, apilamiento y refuerzo completando el curso Métodos de conjunto en Python

Conclusión

Al concluir nuestra exploración de las preguntas esenciales para una entrevista sobre machine learning, queda claro que para tener éxito en este tipo de entrevistas es necesario combinar conocimientos teóricos, habilidades prácticas y estar al tanto de las últimas tendencias y tecnologías en el campo. Desde comprender conceptos básicos como el aprendizaje semisupervisado y la selección de algoritmos, hasta profundizar en las complejidades de algoritmos específicos como KNN, y lidiar con retos específicos de cada función en el procesamiento del lenguaje natural, la visión artificial o el aprendizaje por refuerzo, el alcance es enorme.

Tanto si eres un principiante que desea iniciarse en este campo como si eres un profesional con experiencia que desea seguir avanzando, el aprendizaje y la práctica continuos son fundamentales. DataCamp ofrece un programa completo de científico de machine learning con Python que proporciona una forma estructurada y profunda de mejorar tus habilidades.

Obtén una certificación superior en IA

Demuestra que puedes utilizar la IA de forma eficaz y responsable.

Preguntas frecuentes

¿Cómo es una entrevista sobre machine learning?

Por lo general, las entrevistas técnicas sobre machine learning se dividen en varias partes:

  1. Entrevista de programación
  2. Algoritmos y procesamiento de datos
  3. Entrevista específica para el puesto
  4. Entrevista sobre diseño de sistemas de aprendizaje automático
  5. Operaciones de machine learning y mejores prácticas

Las entrevistas no técnicas o presenciales también forman parte del proceso de selección para puestos relacionados con el machine learning, pero son más generales y específicas de la empresa.

¿Es fácil aprobar las entrevistas sobre machine learning en Amazon?

No, debes prepararte para las distintas fases de la entrevista. Debes prepararte para una prueba de evaluación en línea, una entrevista telefónica con el reclutador, una entrevista técnica telefónica y la entrevista presencial. Cada etapa pone a prueba tus habilidades y conocimientos.

¿Los ingenieros de machine learning tienen entrevistas de programación?

Sí. Pondrá a prueba tus habilidades para resolver problemas con Python y analizar datos con SQL. Además, se te preguntará sobre herramientas de machine learning. Es mejor practicar la programación realizando retos de programación, como las pruebas de evaluación de DataCamp. 

¿Cuáles son las principales tareas que realiza un ingeniero de IA/ML?

Por lo general, los ingenieros de IA/ML investigan, diseñan y desarrollan sistemas de machine learning, pero esto varía según el puesto de trabajo y la empresa. 

Además:

  • Limpias los datos, realizas la validación de datos y aumentas los datos del entrenamiento del modelo. 
  • Ajusta la arquitectura del modelo y los hiperparámetros para obtener mejores resultados.
  • Comprender la disponibilidad de los datos y los negocios.
  • Métricas de rendimiento, algoritmos y estrategia de implementación. 
  • A veces, también participas en operaciones de computación en la nube y desarrollo.

¿Cómo te preparas para una entrevista sobre machine learning?

Infórmate sobre la empresa y las responsabilidades del puesto, resuelve retos de programación, revisa proyectos anteriores, diseña y aprende sobre el ciclo de vida completo del machine learning, practica con preguntas de entrevistas simuladas y lee sobre los últimos avances en el campo de la IA/ML. Esto es importante, tanto si acabas de empezar como ingeniero de machine learning como si tienes años de experiencia profesional en este campo.

Temas

Cursos de machine learning

Curso

Machine Learning for Finance in Python

4 h
32K
Learn to model and predict stock data values using linear models, decision trees, random forests, and neural networks.
Ver detallesRight Arrow
Iniciar curso
Ver másRight Arrow
Relacionado

blog

Los 15 mejores libros sobre machine learning para leer en 2026

Machine learning es uno de los temas más candentes en la ciencia de datos. Aquí tienes una lista de 15 libros para iniciarte en este campo o convertirte en un experto.
Javier Canales Luna's photo

Javier Canales Luna

8 min

blog

Las 20 preguntas más frecuentes en una entrevista sobre NumPy: De Básico a Avanzado

Prepárate para tu próxima entrevista de ciencia de datos con preguntas esenciales sobre NumPy, desde las más básicas hasta las más avanzadas. ¡Perfecto para afinar tus habilidades y aumentar la confianza!
Tim Lu's photo

Tim Lu

9 min

Data engineering interview q and a

blog

Las 39 preguntas y respuestas más importantes para entrevistas de ingeniería de datos en 2026

Triunfa en tu próxima entrevista con esta recopilación de preguntas y respuestas para entrevistas de ingenieros de datos, que te ayudará a prepararte para las diferentes etapas, desde la selección de RR. HH. hasta las evaluaciones técnicas en profundidad, incluidas preguntas sobre Python y SQL.
Abid Ali Awan's photo

Abid Ali Awan

15 min

Machine Learning Concept

blog

¿Qué es el machine learning? Definición, tipos, herramientas y más

Descubre todo lo que necesitas saber sobre el machine learning en 2023, incluidos sus tipos, usos, carreras profesionales y cómo iniciarte en el sector.
Matt Crabtree's photo

Matt Crabtree

14 min

blog

28 preguntas principales de la entrevista a un científico de datos para todos los niveles

Explora las preguntas principales de la entrevista sobre ciencia de datos con respuestas para estudiantes de último curso y profesionales en busca de empleo.
Abid Ali Awan's photo

Abid Ali Awan

15 min

Machine Learning

blog

33 proyectos de machine learning para todos los niveles en 2026

Proyectos de machine learning para principiantes, estudiantes de último año y profesionales. La lista incluye proyectos guiados, tutoriales y código fuente de ejemplo.
Abid Ali Awan's photo

Abid Ali Awan

15 min

Ver másVer más