¿La inteligencia artificial en RRHH está cambiando para siempre la forma de contratar?

Se ha hablado mucho de la inteligencia artificial como sustituta de los puestos de trabajo, pero ¿cómo han cambiado los procesos de contratación con el uso de la IA?

En la era de la transformación digital, la Inteligencia Artificial (IA) se ha convertido rápidamente en una piedra angular de las operaciones de una organización y el proceso de contratación no es una excepción.

El panorama de la captación de talento es un campo minado con una media de más de 250 candidatos para una vacante corporativa, lo que hace que los reclutadores pasen entre 6 y 8 segundos mirando cada CV. Cuando las personas adecuadas pueden marcar una diferencia tan grande en la cultura y el rendimiento de una empresa, un proceso de contratación ineficaz puede costar a las empresas tiempo y dinero para encontrar sustitutos para las malas contrataciones y deshacer cualquier daño que puedan haber causado en el ínterin.

Para los responsables de la selección de personal, la IA supone una alternativa interesante a la criba de innumerables currículos, la redacción de descripciones de puestos de trabajo y la gestión de un bucle interminable de tareas administrativas diarias.

Las herramientas y los algoritmos impulsados por la IA están cambiando, y en algunos casos sustituyendo, todo el proceso de selección de personal. Esto se traduce en contrataciones más rápidas y experiencias más eficientes tanto para los candidatos como para el responsable de la selección.

Aunque este cambio hacia la IA aporta numerosos beneficios, también plantea cuestiones críticas sobre la equidad, la parcialidad y la privacidad.

Ya hemos visto anteriormente cómo las empresas pueden evitar exponer sus datos cuando utilizan grandes modelos lingüísticos (LLM). En esta ocasión, vamos a considerar las implicaciones más amplias del uso de la IA para agilizar sus procesos de contratación.

La revolución de la IA en la contratación

Los profesionales de Recursos Humanos saben lo que se tarda en contratar a un nuevo candidato. En primer lugar, hay que redactar la descripción del puesto, lo que puede llevar tiempo hasta que las personas adecuadas identifiquen las tareas y responsabilidades clave del puesto. A continuación, hay que aprobarla internamente antes de publicarla en las plataformas de búsqueda de empleo pertinentes o compartirla con los candidatos potenciales. Una vez que se han presentado todas las candidaturas deseadas, el responsable de la contratación debe revisarlas y preseleccionarlas antes de iniciar las entrevistas.

Pero ahora llega la IA y un nuevo proceso de contratación más ágil. Alrededor del 85% de los reclutadores creen que la IA es una tecnología útil que sustituirá algunas partes del proceso de contratación. En muchos casos, ya se ha introducido. Ya en 2019, una portavoz de la empresa Unilever dijo que su herramienta de contratación de IA ahorró más de 100.000 horas y 1 millón de dólares en costes globales de contratación ese año. Usar la IA en todo su potencial puede crear beneficios significativos para los ocupados reclutadores que necesitan cubrir un puesto vacante.

1. Selección más rápida de candidatos

Los modelos de IA pueden automatizar tareas repetitivas como la selección de currículos y la búsqueda de candidatos. En lugar de leer cientos de solicitudes para una sola vacante, los responsables de selección pueden introducir la información en un modelo de IA que identifique determinadas palabras clave que coincidan con la descripción del puesto y con lo que se está buscando.

A continuación, el modelo puede preseleccionar automáticamente a los candidatos en función de su grado de adecuación a los criterios deseados. Como resultado, los responsables de contratación pueden centrarse en aspectos más estratégicos de la adquisición de talento, o simplemente dedicarse a todo lo demás de sus crecientes listas de tareas pendientes.

2. Mejora de la experiencia del candidato

¿Alguna vez has dudado en solicitar un puesto de trabajo porque el reclutador no respondía a sus preguntas sobre el puesto? Pues ya no: Los chatbots y asistentes virtuales basados en IA ofrecen respuestas inmediatas a las preguntas de los candidatos, garantizando una experiencia más fluida y atractiva durante todo el proceso de contratación.

Las interacciones personalizadas y las respuestas rápidas contribuyen a una marca de empleador positiva, lo que aumenta el número de personas que desean trabajar para la empresa y, por lo tanto, aumenta la reserva de talento de la que pueden seleccionar los reclutadores.

3. Toma de decisiones basada en datos

Las herramientas de IA pueden utilizar análisis predictivos para identificar a los mejores candidatos basándose en datos históricos y métricas de rendimiento. Mediante el análisis de patrones en contrataciones exitosas, las organizaciones pueden tomar decisiones más informadas basadas en el rendimiento de contrataciones anteriores.

4. Mejora de la diversidad y la inclusión

Algunas plataformas de IA afirman mitigar el sesgo inconsciente en la contratación mediante el anonimato de la información del candidato, centrándose únicamente en las cualificaciones y habilidades. Al eliminar información identificativa como el nombre, el sexo o el origen étnico, estas herramientas pueden promover la diversidad y la inclusión en la contratación.

Riesgos y retos de la IA

La aplicación de la IA en el proceso de contratación también abre un nuevo abanico de riesgos y retos de seguridad que las organizaciones deben abordar para utilizar esta nueva herramienta de forma eficiente y honorable.

1. Sesgo algorítmico

Si un modelo se entrena con un conjunto de datos históricos, los sesgos históricos pueden trasladarse al resultado del modelo. Por ejemplo, si una empresa utilizara la IA para buscar en los currículos candidatos para un puesto de médico, y si el conjunto de datos con el que se ha entrenado muestra que el 80% de los médicos que históricamente encajaban en el puesto eran hombres, es más probable que el modelo favorezca a los candidatos masculinos frente a los femeninos, a pesar de que tengan la misma idoneidad para el puesto.

Además de las implicaciones internas de no ver a todos los candidatos adecuados, esto puede tener importantes consecuencias financieras y para la reputación. Consideremos este caso de la vida real en el que una empresa de clases particulares tuvo que pagar 365.000 dólares de indemnización cuando la IA descalificó automáticamente a los solicitantes en función de la edad como resultado de los datos que se le proporcionaron.

Además, la IA puede sobrevalorar el uso de palabras clave y métricas al revisar los currículos enviados. A diferencia de un ser humano, un sistema de IA podría no captar las habilidades interpersonales y otras experiencias o rasgos de carácter que harían de alguien un candidato más deseable para el puesto.

El proceso automatizado que utilizan los modelos de IA puede incluso favorecer a los candidatos que han utilizado la IA para crear su cur rículum utilizando la descripción del puesto publicada. El resultado es una presentación que «sobre el papel» parece perfecta para el puesto, pero que no es una representación auténtica u honesta de la idoneidad del candidato.

2. Falta de transparencia

Muchos algoritmos de IA funcionan como cajas negras, lo que significa que el proceso de toma de decisiones es poco claro y difícil de entender. Esta falta de transparencia plantea dudas sobre la responsabilidad y la capacidad de cuestionar o corregir los resultados sesgados.

Si las empresas no saben que su IA está sesgada o «envenenada», ¿cómo pueden rectificarla? ¿Y cómo van a saber cómo hacerlo? Esta falta de transparencia también puede ser una oportunidad para que los candidatos furtivos encuentren posibles lagunas en el sistema que lleven sus currículos a los primeros puestos de la lista.

3. Privacidad y seguridad de los datos

Para el uso de la IA en la contratación, los modelos necesitarían alimentarse de grandes cantidades de datos personales proporcionados por los candidatos y la propia organización. Garantizar la confidencialidad y seguridad de estos datos con suficientes medidas de ciberseguridad es primordial para proteger los derechos de privacidad de la empresa y de las personas, así como para cumplir con normativas como el Reglamento General de Protección de Datos (GDPR).

4. Supervisión humana y rendición de cuentas

Si bien la IA puede mejorar la eficiencia, la supervisión humana sigue siendo esencial para evitar el mal uso o la mala interpretación de los conocimientos generados por la IA. Las organizaciones deben establecer marcos y mecanismos claros de rendición de cuentas para abordar los errores algorítmicos o las infracciones éticas.

5. Cumplimiento legal y normativo

El uso de la IA en la contratación está sujeto a diversos marcos legales y reglamentarios, incluidas las leyes contra la discriminación y las normas de protección de datos. El incumplimiento de estos requisitos puede acarrear repercusiones legales y daños a la reputación.

¿Cómo puede su organización aprovechar la IA para la contratación de manera segura y eficaz?

Para aprovechar los beneficios de la IA y, al mismo tiempo, mitigar los riesgos asociados, las organizaciones deben adoptar un enfoque holístico de la IA. Esto incluye

1. Diseño ético de la IA

Priorizar la equidad, la transparencia y la responsabilidad en el desarrollo y despliegue de la IA en todos los sistemas de TI. Esto se puede hacer mediante la aplicación de medidas tales como algoritmos de detección de sesgos y evaluaciones periódicas de imparcialidad para identificar y abordar patrones discriminatorios.

2. Supervisión y evaluación continuas

Evaluar periódicamente el rendimiento de los algoritmos de IA para identificar y mitigar sesgos o errores. Establezca mecanismos de retroalimentación para que los candidatos informen de sus preocupaciones o proporcionen información sobre sus experiencias con los procesos de contratación impulsados por IA. Esta supervisión y seguimiento constantes significan que si algo va mal con el sistema de IA, se puede identificar y rectificar antes de que se acumulen las consecuencias negativas.

3. Perspectivas de equipos con conocimientos mixtos

Fomentar la colaboración entre profesionales de RRHH, científicos de datos, especialistas en ética y expertos legales para garantizar un enfoque multidisciplinar del funcionamiento de la IA. Una serie de conocimientos y perspectivas con vistas al modelo y los programas de IA respaldan el desarrollo de políticas y prácticas de IA sólidas y exhaustivas.

4. Educación y formación

Proporcionar formación a los reclutadores y directores de contratación sobre el uso ético de la IA en la contratación, incluida la concienciación sobre las estrategias de mitigación de sesgos y la importancia de la privacidad y la seguridad de los datos. Cultivar una cultura de adopción responsable de la IA en toda la organización con transparencia y directrices sobre la mejor manera de utilizarla.

5. Cumplimiento normativo

Mantenerse a la vanguardia de la evolución de los requisitos legales y reglamentarios en torno a la IA en la contratación y adaptar las políticas y prácticas de la empresa para garantizar un cumplimiento completo y mantenerse informado sobre los riesgos inminentes y cualquier laguna en el sistema de IA que los ciberdelincuentes puedan aprovechar.

En conclusión…

La IA presenta inmensas oportunidades para transformar los procesos de contratación, permitiendo a las organizaciones identificar y atraer a los mejores talentos de manera más eficaz en menos tiempo. Sin embargo, la adopción generalizada de la IA en la contratación también crea riesgos en torno a la parcialidad, la privacidad y la responsabilidad. Mediante la aplicación de las mejores prácticas enumeradas anteriormente, las organizaciones pueden superar estos desafíos y aprovechar la IA de manera responsable para lograr sus objetivos de contratación, manteniendo los principios de equidad, inclusión y autenticidad.

 

Fuente: www.welivesecurity.com

Las 10 mejores herramientas de Software Libre para desarrollar soluciones de Inteligencia Artificial en plataforma Linux

El desarrollo de soluciones de Inteligencia Artificial (IA) se ha convertido en una parte crucial de muchas industrias y aplicaciones en la actualidad. En el mundo del software libre y de código abierto, existen numerosas herramientas potentes y versátiles que facilitan la creación de aplicaciones de IA en la plataforma Linux.

A continuación, presentamos las 10 mejores herramientas de software libre para desarrollar soluciones de Inteligencia Artificial en Linux:

1. TensorFlow

TensorFlow es una biblioteca de código abierto desarrollada por Google que se utiliza ampliamente para el aprendizaje automático y la construcción de modelos de IA. Ofrece una amplia gama de herramientas y recursos para desarrolladores, incluyendo soporte para redes neuronales profundas y técnicas de aprendizaje profundo.

2. Keras

Keras es una biblioteca de aprendizaje profundo de alto nivel que funciona sobre TensorFlow. Facilita la creación rápida de modelos de IA con una sintaxis simple y modular, lo que la hace ideal para prototipos y experimentación en proyectos de IA.

3. PyTorch

PyTorch es otro marco de aprendizaje profundo popular que ofrece flexibilidad y velocidad en el desarrollo de modelos de IA. Es conocido por su capacidad de realizar cómputos en GPU de manera eficiente, lo que lo hace ideal para tareas intensivas en recursos.

4. Scikit-learn

Scikit-learn es una biblioteca de aprendizaje automático en Python que proporciona herramientas simples y eficientes para análisis de datos y modelado predictivo. Es especialmente útil para tareas de clasificación, regresión, clustering y preprocesamiento de datos.

5. OpenCV

OpenCV es una biblioteca de visión por computadora de código abierto que ofrece una amplia gama de herramientas para procesamiento de imágenes y videos. Es esencial para aplicaciones de IA que involucran análisis de imágenes, reconocimiento facial, seguimiento de objetos, entre otros.

6. Pandas

Pandas es una biblioteca de análisis de datos en Python que facilita la manipulación y limpieza de datos estructurados. Es ampliamente utilizada en proyectos de IA para la preparación y transformación de datos antes de entrenar modelos.

7. NumPy

NumPy es una biblioteca fundamental para computación numérica en Python. Proporciona estructuras de datos como arrays y matrices, así como funciones para operaciones matemáticas avanzadas, lo que la hace esencial para el procesamiento de datos en proyectos de IA.

8. SciPy

SciPy es una biblioteca que se basa en NumPy y ofrece herramientas adicionales para cálculos científicos y técnicas numéricas avanzadas. Es útil para tareas como optimización, álgebra lineal, integración numérica y procesamiento de señales, todas importantes en proyectos de IA.

9. Apache Spark

Apache Spark es un marco de procesamiento de datos distribuido que proporciona capacidades para el procesamiento de grandes volúmenes de datos de manera eficiente. Es especialmente útil para aplicaciones de IA que requieren análisis de datos a escala.

10. Jupyter Notebook

Jupyter Notebook es una herramienta de desarrollo interactiva que permite crear y compartir documentos que contienen código, visualizaciones y texto explicativo. Es ampliamente utilizado en proyectos de IA para el prototipado rápido, la visualización de resultados y la colaboración en equipo.

Estas herramientas de software libre proporcionan una base sólida para el desarrollo de soluciones de Inteligencia Artificial en la plataforma Linux. Con su potencia y versatilidad, los desarrolladores tienen a su disposición un conjunto completo de herramientas para crear aplicaciones de IA innovadoras y eficientes.

Fuente: www.somoslibres.org

Ciberdelincuentes están creando falsas imágenes y videos sexuales mediante IA para sextorsión

Se advierte sobre el uso de herramientas basadas en inteligencia artificial para crear desnudos a partir de imágenes y videos públicos para extorsionar a las personas.

Ecuador– Con el avance de las herramientas basadas en inteligencia artificial (IA) para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. ESET, compañía líder en detección proactiva de amenazas, advierte la creación de desnudos a partir de imágenes y videos públicos para extorsionar a las personas.

En un comunicado publicado el 5 de junio, el FBI alertó sobre el uso por parte de actores maliciosos de imágenes y videos públicos manipulados para campañas de sextorsión. Según advierten, en el último tiempo han recibido varios reportes de víctimas que han sido víctima de la manipulación de videos e imágenes suyas para la creación de imágenes sexuales falsas. Los actores maliciosos detrás de estas campañas luego divulgan este material en redes sociales o sitios de pornografía para luego extorsionar a las víctimas o simplemente intimidarlas. Lamentablemente, entre las denuncias también se registraron víctimas que son menores de edad.

Estas imágenes y videos son obtenidos de redes sociales, de fuentes públicas o incluso proporcionadas por las víctimas y mediante tecnologías basadas en Inteligencia Artificial crean imágenes falsas con apariencia muy real. Como ya explicamos en un artículo sobre la creación de rostros falsos mediante IA, la calidad de estas imágenes puede engañar fácilmente el ojo humano.

El FBI explica también que muchas de las víctimas no están al tanto de la existencia de estas imágenes falsas en las que se suplanta su identidad hasta que alguien le avisa porque las encontró de forma casual o porque son chantajeadas. Si bien es posible intentar que ese contenido desaparezca de Internet, es una tarea muy compleja.

Vale la pena mencionar que en los últimos años hemos visto muchas campañas de sextorsión en las cuales los delincuentes envían correos personalizados intentando asustar a las víctimas haciéndoles creer que han sido víctimas de una infección con un malware que permitió a los cibercriminales grabar videos íntimos utilizando la cámara web de la víctima. Si bien es falso y los delincuentes no han infectado con malware los equipos y no tienen videos o imágenes comprometedores, igualmente intentan extorsionar a las víctimas para que envíen dinero y de esta manera evitar que ese supuesto contenido empiece a circular por Internet. Lamentablemente, muchas personas caen en la trampa. La forma de robar el dinero puede variar. Muchas veces solicitan depositar determinada suma en criptomonedas en una billetera virtual y otras veces pueden demandar el envío de gift cards.

Ejemplo de campaña de sextorsión haciendo creer a la víctima que tienen en su poder imágenes o videos íntimos grabados desde su cámara web.

Está claro que con el avance de las herramientas basadas en IA para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. Actualmente existe una gran cantidad de herramientas y aplicaciones que se ofrecen de forma gratuita en repositorios públicos para crear deepfakes e incluso en foros clandestinos.

«Sin dudas que esta realidad actual obliga a los cuidadores de niños y adolescentes a estar más atentos y a poner al tanto a los más chicos sobre estas nuevas tendencias. También refuerza la importancia de enseñar buenas prácticas de privacidad en línea y las consecuencias de la información que publicamos. Pero no solo debemos proteger a los más chicos, sino también los propios adultos, que también son víctimas.» agrega Gutiérrez Amaya de ESET.

Algunos países ya están tomando medidas para minimizar el uso de deepfakes y en Reino Unido, por ejemplo, ya existen iniciativas para cambiar la ley y sancionar a quienes comparten estos contenidos falsos.

Fuente: www.welivesecurity.com

 

 

 

ChatGPT: cómo la inteligencia artificial ya está cambiando la contratación y la búsqueda de empleo

Las entrevistas laborales cara a cara pueden cobrar otro valor a partir de la inteligencia artificial.

Desde noviembre de 2022, el chatbot de inteligencia artificial (IA) ChatGPT ha permitido que toda persona con acceso a Internet pueda generar casi cualquier tipo de texto.

Pueden ser complejos ensayos, memorandos breves o poemas. Incluso con indicaciones básicas, ChatGPT puede completar tareas escritas complejas en minutos y funcionar como una herramienta creativa para producir contenido eficiente de forma rápida.

«He tenido estudiantes que usan ChatGPT para escribir apelaciones por multas de estacionamiento», dice Vince Miller, profesor de sociología y estudios culturales en la Universidad de Kent, en Reino Unido.

«Pero en general, la tecnología permite que las personas que no necesariamente poseen las mejores habilidades de escritura las tengan de repente«, agrega.

Entre los que reportan tales beneficios están quienes buscan empleo. Aprovechando un enorme conjunto de datos, textos y palabras, ChatGPT -desarrollado por OpenAI- puede redactar cartas de presentación convincentes o sintetizar los detalles de una carrera en un buen currículum vitae.

¿Quieres enviar un correo electrónico a un gerente de contratación? Solicítale al chatbot, luego copia y pega el texto generado por IA directamente en el mensaje.

Pero los gerentes de contratación no son ajenos a esto: ya saben que los candidatos se están apoyando en la IA, y es posible que lo hagan aún más a medida que la tecnología crezca en sofisticación.

Esto podría crear un cambio en las solicitudes de empleo tal como las conocemos, alejando a los reclutadores de los modos tradicionales de evaluar candidatos.

El lado positivo

No todos los encargados de contratar ven el uso de la IA como una señal de alerta, ni como algo preocupante.

Adam Nicoll, director de marketing de la firma de contratación y consultoría laboral Randstad, con sede en Reino Unido, dice que es poco probable que los gerentes de contratación con poco tiempo distingan entre una carta de presentación escrita por un candidato y una generada por IA.

«El lenguaje generado por ChatGPT se lee limpio, aunque usa fórmulas. En comparación con la mayoría de las cartas de presentación, no hay idiosincrasias; no hay banderas rojas, pero tampoco personalidad», dice.

Utilizar la inteligencia artificial es visto como malo por algunos reclutadores, pero otros señalan que es un buen desafío.

A pesar de esto, dice que no necesariamente consideraría esto una trampa en el proceso de contratación.

«Está ayudando a aquellos que no son los mejores escribiendo y editando a producir un resumen ordenado de los aspectos más destacados de su carrera. Es la versión digitalizada de pedirle a un amigo que revise tu CV», argumenta.

Nicoll señala que, de todos modos, los reclutadores ya confían menos en los métodos tradicionales de evaluar candidatos.

«La carta de presentación está de salida desde hace años: los gerentes de contratación leen un currículum por menos de 10 segundos, y mucho menos leen una declaración personal de 200 palabras. En el mejor de los casos, la carta de presentación es un ejercicio de marcar casillas que acompaña al CV; es prácticamente obsoleto», asegura.

En cambio, Nicoll dice que los reclutadores prefieren cada vez más ver las redes sociales y el perfil de LinkedIn de un candidato para comprender su personalidad.

Y a medida que más candidatos utilizan IA para componer sus materiales escritos, agrega que la importancia de estos elementos de postulación se vuelven aún más irrelevantes.

«Si alguien puede mejorar artificialmente el correo electrónico que envía a un gerente de contratación, entonces el email no tiene sentido», sostiene Miller, de la Universidad de Kent.

Cambios en las evaluaciones

Los expertos afirman que los procesos estándar de contratación pueden cambiar como resultado de la nueva tecnología.

Por ejemplo, dado que la IA puede crear presentaciones previas a la entrevista, los empleadores pueden introducir evaluaciones más duras en respuesta.

La IA podría crear un cambio en las solicitudes de empleo tal como las conocemos, alejando a los reclutadores de los modos tradicionales de evaluar candidatos.

«La responsabilidad (del empleador) está en probar y evaluar lo que las máquinas no pueden hacer«, opina Miller.

«Si bien la IA puede organizar los datos de una manera interesante, no es particularmente creativa: solo puede funcionar con lo que ya existe. Entonces, eso podría significar evaluaciones que exigen un pensamiento más creativo y abstracto del candidato», añade.

Además, podría haber un mayor énfasis en examinar a los candidatos en entornos cara a cara, dice Brooke Weddle, socia de la consultora McKinsey & Company, con sede en Washington, DC.

«A diferencia de las cartas de presentación, que generalmente transmiten poca información crítica para la decisión de contratación real, los empleadores analizan detenidamente el bagaje cultural y las habilidades blandas durante el proceso de entrevista», sostiene.

Por otro lado, algunos reclutadores ya están adoptando nuevas herramientas de inteligencia artificial en su parte del proceso de contratación laboral.

Por ejemplo, algunas grandes corporaciones están aprovechando la IA en el proceso de contratación para probar las cualidades de los buscadores de empleo a través de evaluaciones de habilidades y de personalidad, que utilizan información de comportamiento basada en datos para comparar candidatos con las vacantes y ver sus habilidades interpersonales.

Este tipo de plataformas emergentes que brindan a los reclutadores más datos sobre los candidatos también pueden cambiar el proceso de solicitud de empleo, especialmente a medida que «pasamos de las certificaciones de grado a la contratación basada en habilidades», asegura Weddle.

Y esto puede ser solo el comienzo de grandes cambios por venir.

Fuente: www.bbc.com

¿Sustituirá empleos ChatGPT?: son candidatos «trabajos repetitivos y de baja cualificación, como cajeros del súper»

Los puestos de atención al cliente, programación, redacción y traducción podrían ser los principales afectados por la inteligencia artificial de ChatGPT.

La inteligencia humana y artificial se pueden complementar.©[geralt] via Pixabay.com.

Algunos ciudadanos piensan que los robots podrían sustituir puestos de trabajo en un futuro porque son más rápidos y eficaces que una plantilla de empleados. En determinados supermercados se pueden ver los primeros cajeros autopagos que quitan el puesto a dependientes, pero, ¿podría pasar lo mismo con periodistas, profesores o programadores por el nacimiento de ChatGPT? Esta revolución destaca por la capacidad que tiene su inteligencia artificial (IA) para escribir textos, contestar a mensajes o redactar.

Aunque si todavía no sabes de qué hablo, ChatGPT es un sistema de chat de OpenAI que cuenta con su propia extensión para navegadores, además, puede conseguir una respuesta instantánea sin tener que recurrir a distintas webs para resolver dudas.

A mediados de diciembre, los servidores de dicha inteligencia artificial (IA) estaban saturados a causa de las demandas por parte de los usuarios, por consiguiente, OpenAI limitó el número de preguntas. En otras situaciones, ChatGPT se coló en las respuestas de Twitter, puso en apuros a Google por su potencial uso en los motores de búsqueda, e incluso actualmente, Microsoft quiere integrar esta tecnología en Bing para atraer a los usuarios.

Cada vez son más los usuarios que explotan las ventajas e inconvenientes que ofrece ChatGPT. Recientemente, un profesor universitario advirtió que uno de sus alumnos utilizó el chatbot para hacer sus tareas académicas, aunque OpenAI creó un detector para introducir una redacción y comprobar el porcentaje de lo que es real y falso.

Muchas personas se preguntan si el boom de ChatGPT podría sustituir a trabajadores por su gran capacidad de mantener conversaciones y realizar tareas relacionadas con el lenguaje, pero, ¿sería posible? La propia IA indica que «es difícil predecir con certeza qué empleos serán sustituidos en el futuro, pero algunos candidatos potenciales podrían ser trabajos repetitivos y de baja cualificación, como cajeros de supermercado, operadores de maquinaria, atención al cliente, etc.».

¿Adiós a determinados puestos de trabajo?

Si queremos evitar que una tecnología innovadora nos arrebate un puesto de trabajo, Paul Barth (responsable global de alfabetización de datos en Qlik) señala que «en un mundo en el que la IA consumible (es decir, aquella que utilizan las personas en su día a día o que está a su alcance) es cada vez más común, aspectos como la alfabetización de datos gozan de gran importancia. En este sentido, la capacidad de superponer la experiencia del mundo real a los insights será más valiosa que nunca y las empresas deberán empoderar a más profesionales especializados para trabajar con la inteligencia artificial y los datos para obtener valor de todo ello».

En el caso de trabajar con la IA, los profesores, periodistas o programadores no se verían afectados porque podrían completarse con el chatbot. Por ejemplo, ChatGPT ayudaría a los maestros a preparar material didáctico, a los periodistas a recopilar y organizar información, y a los programadores a realizar tareas específicas. Unas de las grandes habilidades que tienen los humanos y no la inteligencia artificial son las capacidades de empatizar, investigar, pensar ideas o aportar juicios de valor.

Esta IA podría facilitar el trabajo de varias profesiones en la actualidad y en un futuro. ¿El motivo? Posee una rápida resolución de problemas y una gran capacidad de aprendizaje para las habilidades relacionadas con la ciencia y tecnología, como la biotecnología o el conocimiento de programación.

El ChatGPT de OpenAI plantea la pregunta «¿qué ocurrirá con los seres humanos que escriben para ganarse la vida o trabajan en sectores creativos, si la IA está demostrando que puede hacer lo mismo a un nivel aún más alto?» Respuesta → «El rol de las personas será crítico en lo que respecta a higiene de datos, garantizando la calidad y precisión de la información para reducir sesgos o malentendidos. Además, podrán aportar un contexto matizado de la realidad, cosa que una máquina no puede hacer».

La inteligencia artificial y humana son complementarias

Existen diferencias entre la inteligencia artificial y humana, para empezar, el cerebro trabaja con la información que le rodea con el objetivo de analizarla para tomar decisiones correctas, mientras que la inteligencia artificial imita el comportamiento humano.

Por otro lado, el proceso de aprendizaje de un usuario depende de los problemas, cambios y decisiones; sin embargo, la IA se diseña únicamente para tareas precisas.

Barth añade que Wcon todo ello, podemos afirmar que los humanos desempeñarán un papel fundamental en el éxito de la IA y, por lo tanto, colaborar con esta tecnología les permitirá verlo como una oportunidad de mejora, y no como una amenaza con la que sustituirles. Así, podrán acelerar la creación de contenidos y generar nuevos conceptos a partir de diversas fuentes de datos, siempre y cuando dispongan de las herramientas y de la alfabetización de datos necesarios para ello».

Fuente: www.20minutos.es

Vamos a morir todos

A pesar de los esfuerzos por encontrar la vida eterna mediante el entrenamiento de una IA que simula a fallecidos o los avances en la criogenización, lo cierto es que, por ahora, no existe la posibilidad de burlar a la muerte.

Mat Honan

 

Hola. ¿Qué tal estás? Traigo algunas noticias. Vas a morir. Todos vamos a morir.

No solo he estado pensando en esto mientras preparábamos esta nueva edición dedicada a la mortalidad, sino también porque he llegado a uno de esos hitos arbitrarios de la vida. Cumplo 50 años este mes

Esto es una noticia buena. Es mejor que la alternativa, como suelen decir. Sin embargo, un hecho desagradable de tener casi 50 años es que mi colesterol «malo» o LDL es demasiado alto. La solución obvia es mejorar mi dieta y hacer más ejercicio. No obstante, si eso fuera tan fácil, nadie tendría el colesterol alto, ¿verdad? Otra opción podría ser tomar estatinas o usar medicamentos para reducirlo. Mucha gente lo hace, pero es un tratamiento, no una cura, y los efectos secundarios pueden ser graves.

También podría editar mis genes usando CRISPR, tal y como hizo de manera reciente una persona en Nueva Zelanda, para reducir permanentemente mi LDL. Teniendo en cuenta que las enfermedades del corazón son una de las principales causas de muerte, eso podría alargar mi vida de forma significativa. Sé que todavía queda mucho por aprender sobre la eficacia de dicho tratamiento, pero impresiona la mera posibilidad de que exista.

Hace tan solo unos años, las cosas que podemos hacer hoy en día para alterar nuestro cuerpo sonarían a ciencia ficción. De hecho, algunas todavía suenan a ciencia ficción. El envejecimiento y la muerte siempre han sido nuestros destinos inevitables, certezas de la vida que comienzan cuando nacemos. Sin embargo, ¿y si el envejecimiento no fuese inevitable? ¿Qué pasaría si pudiéramos ralentizar o incluso revertir ese proceso? Estas posibilidades son menos descabelladas de lo que imaginamos.

Una comitiva de multimillonarios y élites de Silicon Valley, incluida la familia real saudita, han invertido asombrosas cantidades de dinero en esta cuestión, financiando start-ups e investigaciones que intentan extender nuestro tiempo en la Tierra. Antonio Regalado contó la historia de la búsqueda del rejuvenecimiento médico: algunos investigadores se encuentran en la búsqueda sobre cómo reprogramar nuestras células para que vuelvan a ser jóvenes y permitirnos llevar una vida más larga y saludable.

Todo esto lleva a la cuestión más intrigante: ¿Podríamos engañar a la muerte y vivir para siempre? Porque podemos hacerlo. O, al menos, nuestras réplicas digitales pueden, como aprendió Charlotte Jee cuando entrenó una inteligencia artificial (IA) para crear simulaciones de sus padres. La tecnología que exploró Jee es una de las muchas destinadas a permitir que los vivos se comuniquen con los muertos, en este caso a través de Alexa de Amazon.

Sin embargo, incluso si logramos vivir para siempre a través de un altavoz inteligente, en estos momentos todavía no hay forma de evitar la muerte. Por supuesto, hay mucha gente trabajando en eso. A lo mejor deseas conservar tu cadáver a -196 °C con la esperanza de que algún día te devuelvan la vida. Para ello, el campo de la criogenia sigue avanzando, a pesar de que se trata de «una aspiración desesperada que revela una ignorancia atroz de la biología», como lo expresa un científico.

Por otro lado, para quienes han aceptado su destino, pero quieren que su muerte ayude a otros a vivir más tiempo, siempre existe la posibilidad de donar el cuerpo a la ciencia. Eso es algo de lo que seguramente habrás oído hablar, pero no se parece en nada a lo que probablemente te has imaginado. Abby Ohlheiser abrió el telón para revelar cómo funciona realmente este proceso tan íntimo.

Fuente: www.technologyreview.es

¿Por qué el Machine Learning es un gran aliado para la ciberseguridad?

Repasamos qué es el Machine Learning, cómo funciona el proceso, tipos de aprendizaje automático y cómo se utiliza en ciberseguridad.

Si bien hemos hablado en varias oportunidades sobre Machine Learning e incluso de nuestro producto Augur, en esta ocasión haremos un pequeño repaso teórico para aquellos que no están  tan familiarizados con esta tecnología.

¿Qué es Machine Learning?

El aprendizaje automático, en inglés Machine Learning (ML), es una rama de la ciencia que permite a las computadoras a través de un conjunto de técnicas realizar tareas sin ser programadas explícitamente. A través del ML los ordenadores pueden generalizar su comportamiento a partir de datos procesados con el objetivo de realizar predicciones sobre datos futuros.

A modo de contexto, el término Machine Learning existe desde hace varias décadas, cuando  Arthur Samuel lo utilizó por primera vez en los laboratorios de IBM en el año 1959 y lo definió como:

“Campo de estudio que le da a las computadoras la capacidad de aprender sin ser programadas explícitamente”

Sin embargo, fue recién en la década de 1980 cuando este concepto tomó más fuerza con la aparición de las redes neuronales artificiales (ANN – Artificial Neural Network) y luego después de otra década se empezó a utilizar por diversos especialistas con el objetivo de resolver algunas problemáticas de la vida diaria.

Similar a lo que ocurrió a principios del 2010 con las tecnologías Cloud cuando muchos consideraban que no iban a tomar fuerza, lo mismo pasó con el ML. Hoy en día esta ciencia es utilizada por diversas empresas: Facebook, Netflix, YouTube, Google o Amazon, por nombrar algunas.

Los sistemas que utilizan Machine Learning más populares son el reconocimiento de voz y el reconocimiento facial, perfilamiento de clientes en marketing, estudios de mercado, y a esto último se le está sumando automatización para IoT, automóviles autónomos, y hasta incluso los famosos robots de ayuda.

Ahora bien, la pregunta central es: ¿qué tipo de necesidades podría satisfacer el Machine Learning en la industria de la ciberseguridad? Para responder esto antes debemos dar un pequeño marco teórico para comprender dónde podríamos aplicar Machine Learning en la ciberseguridad.

¿Cómo se clasifica el ML en general?

A grandes rasgos, lo podemos clasificar como:

Si bien, tal como se observa en la figura anterior, existen varios algoritmos de Machine Learning, en este artículo abordaremos dos para entender cómo podrían ser utilizados en el área de la ciberseguridad:

Aprendizaje supervisado: está enfocado en determinar las probabilidades de nuevos eventos en función de eventos observados anteriormente. Dentro de este algoritmo encontramos otras dos categorías:

  • Clasificación: los algoritmos de clasificación predicen a qué categoría pertenece una entrada en función de las probabilidades aprendidas de las entradas observadas previamente. Por ejemplo: determinar si un archivo es malware o no.
  • Regresión: los modelos de regresión (lineal, logística) predicen un valor de salida para una entrada determinada en función de los valores de salida asociados a las entradas anteriores. Por ejemplo: predecir cuántas muestras de malware se detectarán al próximo mes.

Aprendizaje no supervisado: intentan encontrar patrones no etiquetados. Por ejemplo: determinar cuántas familias de malware existen en el conjunto de datos y qué archivos pertenecen a cada familia. Dentro de este tipo de ML se encuentra el “Clustering”, que consiste en agrupar un conjunto de objetos (cluster) por sus similitudes. Ejemplo: detección de anomalías, o familias de malware.

Etapas del Machine Learning

Aunque no seas experto en este tipo de tecnologías, es importante entender a rasgos generales cómo funciona el proceso general del ML, el cual se divide en las siguientes etapas:

  • Obtención de datos: Cualquiera sea el algoritmo de ML a utilizar, se debe poseer un gran número de datos para entrenar a nuestro modelo. Mayoritariamente los datos provienen de diversas fuentes.
  • Preprocesamiento: muchas veces los datos recolectados son categóricos, por lo que es necesario realizar un preprocesamiento y transformar esos datos en numéricos, ya que los algoritmos de ML trabajan solo con datos numéricos.
  • Extracción de características: se identifican los elementos que deben extraerse y someterse a análisis.
  • Selección de características: se identifican los atributos necesarios para entrenar el modelo de ML.
  • Entrenamiento: se entrena el modelo en base al algoritmo seleccionado de ML. En esta etapa se utiliza una parte de los datos para entrenar el modelo y otra parte para realizar la evaluación del mismo.
  • Testing: es considerado por muchos expertos la etapa más importante, ya que, teniendo el modelo entrenado, se debe validar el modelo. Para esto, los datos que se separaron en la etapa anterior, datos de validación, son utilizados para ejecutar el modelo de ML y evaluar si el modelo ofrece los resultados esperados.
  • Análisis de resultados: en esta etapa se buscan los errores a corregir y ajustar el modelo.

Ya explicado los tipos de ML que existen y sus etapas, procederemos a detallar las áreas en donde se podría utilizar esta tecnología dentro de la ciberseguridad.

Áreas de la ciberseguridad en las que se está aplicando el Machine Learning

En general, los productos de aprendizaje automático se crean para predecir ataques antes de que ocurran, pero dada la naturaleza sofisticada de estos ataques, las medidas preventivas a menudo fallan. En tales casos, el aprendizaje automático ayuda a remediar de otras maneras cómo reconocer el ataque en sus etapas iniciales y evitar que se propague por toda la organización. En la siguiente figura se identifica las necesidades que podría cubrir el ML dentro del campo de la ciberseguridad:

El lado B del Machine Learning

Por ahora solo se hablo de cómo el Machine Learning podría llegar a ser un aliado para el campo de la ciberseguridad, pero no nos debemos olvidar que el ML en la actualidad es utilizado para diversas áreas. Por ejemplo:  reconocimiento facial, en el campo de la genética, compresión de textos, vehículos autónomos y robots, análisis de imágenes, detección de fraudes, predecir tráfico, selección de clientes, posicionamiento en buscadores, reconocimiento de voz, entre otros aplicativos. Sin embargo, todos estos tipos de aplicativos funcionan a partir del procesamiento de enormes cantidades de datos.

La pregunta entonces es: ¿Puede ser un modelo de Machine Learning vulnerado por cibercriminales? La respuesta es: Sí.

Así como se estudia dentro de la ciberseguridad modelos de prevención para distintas tecnologías, actualmente se está empezando a poner foco en la aplicación del ML a estos modelos. Por eso dentro del campo de la ciberseguridad está tomando más relevancia el concepto de Adversarial Machine Learning.

¿Qué es Adversarial Machine Learning?

El término “adversario” se utiliza en el campo de la ciberseguridad para describir al procedimiento mediante el cual se intenta penetrar o corromper una red.

En este caso, los adversarios pueden usar una variedad de métodos de ataque para interrumpir un modelo de aprendizaje automático, ya sea durante la fase de entrenamiento (llamado ataque de “poisoning” o envenenamiento) o después de que el clasificador haya sido entrenado (un ataque de “evasión”).

Conclusiones

En los últimos años el termino de Machine Learning ha tomado más importancia para los sistemas, claro está que es un tipo de tecnología en crecimiento y que tiene muchísimos beneficios para diversos sectores. En cuanto al área de la ciberseguridad, se puede utilizar ML en Threat Intelligence; por ejemplo, en la detección de amenazas, ya que esta área produce un gran volumen de datos en su inicio.

Además, se está buscando incluirlo dentro de las áreas de Threat Hunting y para la clasificación certera de familias de malware.

Sin dudas esta tecnología es un gran aliado para múltiples sectores, pero existe la posibilidad de que estos modelos de inteligencia de datos sean modificados y que esto afecte gravemente el negocio que los está utilizando. En un próximo artículo profundizaremos en lo que respecta la temática de Adversarial Machine Learning.

Fuente: https://www.welivesecurity.com/

Cómo la inteligencia artificial podría destruirnos por accidente

Un experto en inteligencia artificial dice que incluso robots bien intencionados podrían volverse contra nosotros.

Desde Stephen Hawking hasta Elon Musk, algunas de las mentes más importantes del mundo de la inteligencia artificial (IA) han expresado su preocupación de que esta represente una amenaza existencial para nuestra especie.

Pero según un nuevo libro, lo que debe preocuparnos no es que los robots tomen conciencia de sí mismos y se alcen contra sus amos humanos, sino que las máquinas se vuelvan tan buenas en la consecución de los objetivos que les fijamos, que terminemos siendo aniquilados inadvertidamente al establecerles tareas equivocadas.

Stuart Russell, profesor en la Universidad de California en Berkeley, es el autor de Human Compatible: AI and the Problem of Control («Compatible con humanos: la IA y el problema del control») y un experto en los avances que el aprendizaje automático ha hecho posibles.

«El meme de Hollywood siempre consiste en la máquina que espontáneamente toma conciencia de sí misma y luego decide que odia a los seres humanos y quiere matarnos a todos», dijo a la BBC.

Pero los robots no tienen sentimientos humanos, por lo que «es completamente equivocado preocuparse por eso».

Los robots son cada vez mejores en las tareas que les asignamos.

«No es realmente la conciencia maligna, sino su capacidad la que tiene que preocuparnos, solo su capacidad de alcanzar un objetivo mal especificado por nosotros».

«Demasiado competente»

En una entrevista con el programa Today de la BBC, el experto dio un ejemplo hipotético de la amenaza real que, en su opinión, la IA podría representar.

Imagina que tenemos un poderoso sistema de IA que es capaz de controlar el clima del planeta y que queremos usarlo para devolver los niveles de CO2 en nuestra atmósfera a la época preindustrial.

«El sistema descubre que la forma más fácil de hacerlo es deshacerse de todos los seres humanos, porque ellos son los que están produciendo todo este dióxido de carbono en primer lugar», dijo Russell.

«Y podrías decir, bueno, puedes hacer lo que quieras, pero no puedes deshacerte de los seres humanos. Entonces ¿qué hace el sistema? Simplemente nos convence de tener menos hijos hasta que no queden seres humanos».

La victoria del equipo de ajedrez Deep Blue sobre Garry Kasparov fue un hito para el desarrollo de la inteligencia artificial.

El ejemplo sirve para resaltar los riesgos asociados a que la inteligencia artificial actúe bajo instrucciones en las que los humanos no hemos pensado.

Superinteligencia

La mayoría de los sistemas actuales de IA tienen aplicaciones «débiles», diseñadas específicamente para abordar un problema bien especificado en un área, según el Centro para el Estudio del Riesgo Existencial, de la Universidad de Cambridge, en Reino Unido.

Un momento importante para este campo llegó en 1997, cuando la computadora Deep Blue derrotó al campeón mundial de ajedrez, Garry Kasparov, en un torneo de seis partidas.

Pero a pesar de la hazaña, Deep Blue fue diseñado por humanos específicamente para jugar al ajedrez y no podría con un simple juego de damas.

Ese no es el caso de los avances posteriores en inteligencia artificial. El software AlphaGo Zero, por ejemplo, alcanzó un nivel de rendimiento sobrehumano después de solo tres días de jugar Go contra sí mismo.

Usando el aprendizaje profundo, un método de aprendizaje automático que emplea redes neuronales artificiales, AlphaGo Zero requirió mucha menos programación humana y resultó ser un muy buen jugador de Go, ajedrez y shōgi.

Fue completamente autodidacta, de una manera, tal vez, alarmante.

Russell dice que los humanos necesitamos recuperar el control de la IA antes de que sea demasiado tarde.

«A medida que un sistema de inteligencia artificial se vuelva más poderoso y más general, podría volverse súper inteligente, superior al rendimiento humano en muchos o casi todos los dominios«, dice el Centro de Riesgo Existencial.

Y es por eso que, según Russell, los humanos necesitamos retomar el control.

«No sabemos lo que queremos»

Según Russell, dar a la inteligencia artificial objetivos más definidos no es la solución para este dilema, porque los humanos mismos no estamos seguros de cuáles son esas metas.

«No sabemos que algo no nos gusta hasta que sucede», dice.

«Deberíamos cambiar toda la base sobre la cual construimos sistemas de IA», dice, alejándose de la noción de dar a los robots objetivos fijos.

«En cambio, el sistema tiene que saber que desconoce cuál es el objetivo».

«Y una vez que tienes sistemas que funcionan de esa manera, realmente serán diferentes a los seres humanos. Comenzarán a pedir permiso antes de hacer las cosas, porque no estarán seguros de si eso es lo que quieres».

En «2001: Odisea en el espacio» (1968), una computadora altamente capaz se rebela contra los planes para apagarla.

En especial, dice el profesor Russell, estarían «felices de que los apaguen porque querrán evitar hacer cosas que no te vayan a gustar».

El genio de la lámpara

«La forma en que construimos la IA es un poco como la forma en que pensamos en un genio dentro de una lámpara. Si frotas la lámpara, sale el genio y dices: ‘Me gustaría que esto sucediera'», dijo Russell.

«Y, si el sistema de IA es lo suficientemente potente, hará exactamente lo que pides y obtendrás exactamente lo que pides».

«Ahora, el problema con los genios en las lámparas es que el tercer deseo es siempre: ‘Por favor, deshaga los dos primeros deseos porque no pudimos especificar los objetivos correctamente».

«Entonces, una máquina que persigue un objetivo que no es el correcto se convierte, en efecto, en un enemigo de la raza humana, un enemigo que es mucho más poderoso que nosotros».

Fuente: www.muylinux.com


Deprecated: trim(): Passing null to parameter #1 ($string) of type string is deprecated in /home1/uiolibre/public_html/wp-content/plugins/simple-lightbox/includes/class.utilities.php on line 545