• Canva prohíbe a su herramienta de inteligencia artificial crear imágenes de candidatos políticos o términos médicos.
  • La decisión tiene como objetivo prevenir contenido dañino o inapropiado, dijo a The Verge Melanie Perkins, CEO de Canva.
  • Las políticas de Canva parecen más favorables a los artistas que las de Adobe y Meta, que enfrentaron reacciones negativas.
  • ¡Nos vemos en TikTok!

El gigante del diseño Canva ha establecido límites estrictos sobre lo que su herramienta de inteligencia artificial (IA) puede y no puede hacer.

La función de IA de Canva, llamada Magic Media, no funciona con términos médicos o políticos. Ese contenido puede ser dañino o inapropiado, dijo la directora ejecutiva Melanie Perkins en una entrevista con The Verge publicada el lunes.

El software de Canva se puede utilizar para crear cualquier cosa, desde invitaciones a fiestas hasta contenido para redes sociales y plantillas de presentaciones.

«Canva fue diseñado para ser una plataforma en la que puedes entrar, tomar tu idea y convertirla en un diseño; sin embargo, hay ciertas cosas que no deberíamos generar», dijo Perkins, cofundador de la empresa hace 11 años.

Perkins dijo que si, por ejemplo, se le pide a la herramienta que cree imágenes de candidatos políticos, simplemente le dirá al usuario: «No puedes hacer eso».

Los usuarios aún pueden crear por su cuenta diseños con contenido político o de salud en la plataforma.

Canva tampoco permite que se utilice IA para generar contratos; asesoramiento legal o financiero; spam, o contenido para adultos, según los términos de su producto de IA.

La empresa también tiene una política clara sobre el scraping de IA. Canva no entrena a su IA con el contenido de los creadores sin permiso; los usuarios pueden optar por que sus diseños no se utilicen para su entrenamiento en cualquier momento, según un blog de la empresa.

De manera predeterminada, todos los usuarios tienen prohibido usar contenido de diseño privado para entrenar modelos de IA, dijo un portavoz de Canva a Business Insider.

El año pasado, la compañía creó un fondo de 200 millones de dólares para pagar a los usuarios que opten por el entrenamiento de IA en los próximos tres años.

Canva se separa de otros gigantes tecnológicos que usan inteligencia artificial

La postura de Canva sobre la IA difiere notablemente de la de otros gigantes de creación de contenidos, Adobe y Meta; ambos han sido criticados dentro de la comunidad creativa en los últimos meses.

El mes pasado, Meta enfrentó quejas de artistas molestos porque usó sus fotos públicas en Instagram y Facebook para entrenar sus modelos de IA. Varios artistas le dijeron a BI que se están mudando a plataformas como Cara que prohíben el uso de IA. Meta no respondió a una solicitud de comentarios en ese momento.

Casi al mismo tiempo, los artistas protestaron cuando Adobe envío una actualización de sus «Términos de uso». Esto llevó a algunas personas a pensar que la IA eliminaría su arte y contenido. Una ola de artistas boicoteó a Adobe; esto impulsó las suscripciones a alternativas como Linearity y Affinity, que Canva adquirió a principios de este año.

En ese momento, Adobe publicó en un blog que el contenido pertenece a los usuarios; que nunca se utilizaría para entrenar herramientas de IA generativa.

Un portavoz de Adobe remitió a BI a las normas de IA de la empresa. Estas indican a los usuarios que no deben crear contenido de odio o para adultos; tampoco deben buscar asesoramiento médico de las funciones de inteligencia artificial. Las normas no mencionan si dicho contenido puede generarse en primer lugar.

AHORA LEE: Canva busca conquistar a grandes empresas con nuevos productos de IA enfocados al lugar de trabajo

TAMBIÉN LEE: Canva apuesta por la inteligencia artificial para crecer su negocio y cumplir su misión de ‘democratizar’ el diseño gráfico

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: