Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

Los agentes de IA transformarán procesos y encararán riesgos

Según Gartner, un agente no tiene por qué ser un modelo de inteligencia artificial (IA). También puede ser un programa informático, otra entidad computacional o un robot. Cuando se combinan varios agentes independientes pero interactivos, cada uno capaz de percibir el entorno y emprender acciones, se obtiene un sistema multiagente.

Y, sí, las empresas ya los están desplegando. El Laboratorio de Propulsión a Chorro de la NASA, por ejemplo, utiliza sistemas multiagente para garantizar que sus salas limpias se mantengan limpias para que nada contamine el hardware de vuelo con destino a otros planetas.

A partir de 2018, la agencia utilizó agentes, en forma de ordenadores Raspberry PI que ejecutan redes neuronales de inspiración biológica y modelos de series temporales, como base de una red cooperativa de sensores.

“No se trataba de una sola medición de partículas”, dice Chris Mattmann, ex jefe de Tecnología e Innovación del JPL de la NASA. “Eran muchas mediciones a partir de las cuales los agentes decidían colectivamente si había demasiados contaminantes o no”.

Los anteriores sensores de última generación costaban decenas de miles de dólares, añade Mattmann, que ahora es director de Datos e IA de la UCLA. También tenían una sensibilidad de medición extrema. Pero un nuevo sistema multiagente tenía sensores que podían construirse por sólo cientos de dólares cada uno, aunque no eran tan sensibles como los más caros.

“Para compensar esa sensibilidad, tenían que trabajar juntos y compartir datos y conocimientos como lo haría un agente”, explica. Es un sistema que se sigue utilizando hoy en día. Pero la evolución de la IA implica que los sistemas de agentes se utilicen ahora para una mayor variedad de problemas. “El punto álgido es que, en lugar de basarse en reglas, estadísticas y umbrales, ahora estos sistemas están imbuidos de la potencia del aprendizaje profundo y el aprendizaje de refuerzo profundo que aportan las redes neuronales”, afirma Mattmann. “Los sistemas se alimentan de datos, se entrenan y mejoran con el tiempo por sí solos”.

Añadir IA más inteligente también añade riesgo, por supuesto. “Al menos con cosas como ChatGPT, DALL-E 3 y Midjourney, hay una interacción constante con los humanos”, dice, y añade que con la IA agéntica, hay potencial para la toma de decisiones autónoma. “El gran riesgo es que los humanos quedan fuera de juego cuando se les deja en libertad”.

Mientras tanto, la NASA no es la única que está desplegando estos primeros tipos de sistemas multiagente, ya que las empresas que se ocupan de operaciones y logística llevan años utilizando estas tecnologías.

“La noción de agentes es muy antigua”, confirma Anand Rao, profesor de Inteligencia Artificial de la Universidad Carnegie Mellon. “Yo trabajaba en sistemas multiagente en los años ochenta. Construíamos sistemas para el transbordador espacial, que era demasiado complejo para un solo sistema”. Con el tiempo, los agentes se han vuelto más independientes, dice, y actúan en función de metas y objetivos.

También está Hughes Network Systems, proveedor de comunicaciones por satélite y servicios gestionados, que lleva muchos años utilizando IA agéntica, dice Dan Rasmussen, vicepresidente senior y director general de la división Empresarial de Norteamérica de la empresa. Él y su equipo la utilizan para resolver problemas de degradación del servicio. “Alimentamos continuamente nuestros algoritmos con las estadísticas de la red y de los equipos de los clientes, lo que les permite adaptarse a las condiciones cambiantes e identificar anomalías”, afirma.

Explorar cuestiones relacionadas

Más recientemente, Hughes ha empezado a crear software para automatizar el despliegue de aplicaciones en Google Cloud Platform y crear canalizaciones CI/CD, al tiempo que genera código mediante agentes.

“Nuestro objetivo es analizar registros y métricas, conectándolos con el código fuente para obtener información sobre correcciones de código, vulnerabilidades, problemas de rendimiento y problemas de seguridad”, explica.

Hughes ya ha completado con éxito una prueba de concepto (PoC) para estos casos de uso y ahora los está convirtiendo en un producto.

La empresa también ha desarrollado sus propias herramientas internas de IA agéntica y utiliza distintos marcos agénticos para diferentes proyectos, como Microsoft AutoGen, y está explorando crewAI y LlamaIndex.

“Hughes utiliza estas herramientas para apoyar el funcionamiento de redes que dan servicio a más de un millón de nodos remotos”, afirma. Al principio, las herramientas se limitaban a hacer recomendaciones para que los humanos las revisaran y actuaran en consecuencia. “Después de observar este sistema durante unos meses”, prosigue, “Hughes permitió que el proceso se ejecutara automáticamente e informara de los cambios implementados. Utilizamos el mismo proceso de revisión para cualquier nueva mejora”.

Pero hay alarmas que se activan y detienen los comportamientos automatizados si el número de anomalías detectadas o las correcciones aplicadas van más allá de las normas estadísticas, para que la automatización no se desboque y afecte a la red.

Proliferación de la IA agéntica

Según una encuesta de Capgemini a 1.100 ejecutivos de grandes empresas, el 10% de las organizaciones ya utiliza agentes de IA, más de la mitad tiene previsto utilizarlos en el próximo año y el 82% tiene previsto integrarlos en los próximos tres años. Además, el 71% de los encuestados afirma que los agentes de IA aumentarán la automatización de sus flujos de trabajo, el 64% afirma que mejorarán el servicio y la satisfacción del cliente, y el 57% afirma que las posibles mejoras de productividad compensan los riesgos.

Además, de las empresas que tienen previsto utilizar agentes de IA, el mayor caso de uso fue en el desarrollo de software, para generar, evaluar y reescribir código, y el 75% dijo que tiene previsto utilizar agentes de IA de esta manera. Tiene sentido que el desarrollo sea el principal caso de uso de la IA con agentes, afirma Babak Hodjat, director de Tecnología de IA en Cognizant.

“La mayoría de los que trabajamos en IA somos ingenieros de software”, afirma. “Además, la ingeniería de software es más fácil de verificar, por lo que se pueden tener sistemas semisupervisados que comprueben el trabajo de los demás. Eso es lo primero que se está abordando”.

Más poder, más responsabilidad

El estudio de cine y televisión Legendary Entertainment tiene mucha propiedad intelectual que proteger, y utiliza agentes de IA, dice Dan Meacham, CISO de la empresa. “Aprovechamos la IA agéntica en varios verticales de nuestros programas de seguridad”, afirma. Por ejemplo, los agentes de IA utilizan inteligencia de código abierto para buscar filtraciones de películas y piratería en las redes sociales y la web oscura. Se negó a decir qué marcos específicos se utilizaron para construir los sistemas, pero dice que aprovecha una solución empresarial similar a OpenAI que permite algunas automatizaciones de procesos empresariales.

Sin embargo, cuando se trata de seguridad, la IA agéntica es un arma de doble filo con demasiados riesgos como para contarlos, afirma. “Esto nos quita el sueño”, afirma. Muchos de los riesgos son los mismos que los de la IA generativa en general, ya que es la IA genérica la que impulsa los sistemas agénticos. Eso significa que a Meacham le preocupa que se filtren contenidos y activos creativos a través de aplicaciones de IA y que la IA genere contenidos infractores.

Además, existe el riesgo de inyecciones de código malicioso, en las que el código se oculta dentro de documentos leídos por un agente de IA, y la IA ejecuta el código.

“Este vector de ataque no es nuevo, ya que se trata de un ataque clásico de inyección SQL o de procedimientos almacenados en bases de datos”, afirma Meacham. “Hay técnicas de mitigación emergentes que aprovechan patrones del tipo de prevención de pérdida de datos para limitar o excluir tipos de datos de ser aprendidos. Además, algunas soluciones emergentes afirman inspeccionar los conjuntos de instrucciones a medida que los módulos aprenden y crecen para ayudar a prevenir inyecciones, alucinaciones y código malicioso”. “Para el primer trimestre de 2025, deberíamos tener algunos competidores reales en la protección de la IA que sean algo más que las mejoras existentes de DLP y revisión de código colocadas delante o encima de los LLM”.

Sinclair Schuller, socio de EY, afirma que existen varias estrategias principales para proteger la IA multiagente, además de las barreras de protección ya establecidas para los modelos de IA genéricos subyacentes. Por ejemplo, un agente puede tener una personalidad determinada: “¿Es longevo o efímero? ¿Puede colaborar con otros agentes?”.

Los sistemas multiagente también pueden recurrir al consenso, pidiendo a agentes similares que evalúen el trabajo de los demás, o utilizar agentes adversarios para comprobar la respuesta original, crear otra distinta y comparar los dos resultados. Las empresas también tienen que pensar en cómo probarán estos sistemas para asegurarse de que funcionan según lo previsto. “Eso es lo más difícil”, afirma.

Los sistemas de agentes también pueden configurarse de forma que el alcance de lo que pueden hacer los agentes sea limitado, afirma, y hay que contar con humanos en el bucle. La aseguradora Aflac es una de las empresas que se asegura de que así sea para mantener la supervisión humana sobre la IA, en lugar de dejar que actúe de forma completamente autónoma. Esto significa mantener la participación humana, afirma Shelia Anderson, CIO, incluso cuando la empresa adopta un plan acelerado de creación de prototipos para proyectos de IA agéntica. Estos proyectos incluyen los que simplifican el servicio al cliente y optimizan los flujos de trabajo de los empleados. “Estamos adoptando el mismo enfoque con la IA agéntica que con la IA generativa y otras tecnologías emergentes”, afirma.

Esto significa que los proyectos se evalúan en función del riesgo que entrañan. Los casos de uso de bajo riesgo implican aplicaciones de back office o habilitación de procesos, y afectan a la forma en que las personas hacen su trabajo. Los riesgos medios son los que afectan a datos internos y usos internos. Y las iniciativas de riesgo alto implican a usuarios externos o datos protegidos.

El equipo de innovación de Aflac evalúa actualmente los casos de uso que explorará en las PoC a corto plazo. Esto implica la evaluación de varios modelos y plataformas para la IA agéntica, incluida la propia.

“Nuestra estrategia de IA de alto nivel nos está posicionando para una IA más específica, que podría incluir diferentes modelos y plataformas en función de cómo pretendamos aplicar la tecnología a la cadena de valor”, afirma Anderson.

Otro riesgo de la IA agéntica es que puede afectar potencialmente a los trabajadores humanos del bucle, ya que puede gestionar procesos empresariales más complejos.

“Considerar el impacto en los trabajadores y el aumento de su productividad es tanto una oportunidad como un riesgo”, añade. El plan es trasladar a los trabajadores del conocimiento a tareas de mayor valor, o utilizar la IA para ayudarles a tomar mejores decisiones y mejorar la experiencia del cliente. Así que, aunque Aflac está entusiasmada con las ventajas que la IA puede aportar en el futuro, “también seguimos centrados en apoyar a nuestros clientes con el toque personal que esperan y a menudo necesitan”.

La IA agéntica en sus primeras etapas

Aflac no es la única empresa que acaba de iniciar el viaje de la IA agéntica. Centric Consulting, por ejemplo, trabaja con una mediana empresa regional de seguros de propiedad y accidentes que utiliza dos proveedores diferentes para recopilar correos electrónicos de clientes relacionados con reclamaciones de seguros y procesar esos documentos.

La empresa pagaba medio millón al año en licencias, dice Joseph Ours, director de Soluciones de IA de Centric, y seguía habiendo mucho trabajo manual. Así que sustituir el proceso por un sistema agéntico podría ahorrar a la empresa en torno a un millón de dólares al año, por lo que merecía la pena invertir en costes de desarrollo en lugar de esperar a que alguno de los dos proveedores mejorara sus productos.

“Además, estos dos proveedores eran grandes y era poco probable que se compraran mutuamente, así que no ibas a conseguir sinergias”, afirma Ours.

Centric construyó entonces un marco agéntico personalizado, con un back-end agnóstico de LLM para los agentes. En la actualidad, la plataforma es compatible con OpenAI, OpenAI en Azure, Gemini de Google o Claude de Anthropic. Por ejemplo, el GPT-4o de OpenAI, que es multimodal, se utiliza para manejar documentos escaneados o imágenes como fotografías de daños. Y cuando un modelo de IA generativa sería excesivo, como desensamblar un correo electrónico en partes constituyentes o buscar números de póliza, la plataforma utiliza software o llamadas a funciones para gestionar las tareas en su lugar. El sistema ha superado la fase de prueba de concepto y ahora está en fase piloto.

“La prueba de concepto no incluía las barandillas de seguridad ni los detalles sobre la experiencia del cliente”, explica Ours. “Estamos trabajando para añadirlas. El objetivo es hacer una prueba piloto por fases. Queremos asegurarnos de que todo funciona como esperamos”.

Cuando el sistema entienda perfectamente lo que entra, lo que hay que hacer con ello y adónde tiene que ir, funcionará de forma autónoma, dice Ours. “Si en algún momento no entiende algo o no encuentra el registro adecuado, se pasa a la revisión manual”.

También habrá herramientas para capturar métricas de precisión y exactitud, y ayudar a protegerse contra la deriva, y se espera que el sistema esté en producción en el cuarto trimestre de este año, junto con la formación laboral y otra gestión del cambio.

“La IA es tan perturbadora como lo fue la revolución industrial para las sociedades agrícolas”, afirma Ours. “No deberíamos implantarla sin poner algunas herramientas, o la gente se va a resistir y se obtendrán resultados subóptimos”.

Atlantic Health System, una de las mayores redes sanitarias sin ánimo de lucro de Nueva Jersey, también ha empezado a construir un marco para aprovechar la IA agéntica como parte de su estrategia de automatización.

“Por ahora, estamos construyendo flujos de trabajo utilizando la generación aumentada de recuperación”, dice Sunil Dadlani, vicepresidente ejecutivo y director de Información y Transformación Digital de la compañía. Esto permite enriquecer las consultas LLM con contexto relevante.

“Empleamos PoCing agentic AI como una manera de ampliar el tipo de flujos de trabajo que pueden ser apoyados de una manera más flexible, pero centrado en la tarea”, añade.

La empresa también está explorando la posibilidad de utilizar la IA agéntica en ITSM.

“Vemos una gran oportunidad tanto en aprovechar la tecnología para mejorar nuestros procesos internos de TI, como en actuar como campo de pruebas para generar confianza en la tecnología tanto para nosotros como para el negocio”, afirma.

Para ello, Atlantic Health utiliza su propia plataforma interna de habilitación digital y está explorando LangChain para orquestar el flujo de datos entre los LLM junto con Amazon Bedrock. Esto podría ampliarse hasta convertirse en la base del marco de IA agéntica de la empresa.

“También estamos aprovechando Dialogflow con la plataforma Google Cloud, e iniciando conversaciones sobre cómo podríamos aprovechar Microsoft Bot Framework”, afirma.

El coste del progreso

La IA agenética ofrece muchas ventajas potenciales en la atención sanitaria, pero también introduce riesgos significativos que deben gestionarse cuidadosamente. Atlantic Health ya dispone de un marco para mantener la seguridad de su IA agéntica, que incluye prácticas de datos, seguridad robusta, supervisión humana y gobernanza transparente, combinadas con supervisión continua, pruebas, cumplimiento de los marcos legales y estructuras de responsabilidad. Pero los sistemas de IA agéntica están diseñados para funcionar con un cierto nivel de autonomía, afirma.

“La seguridad del paciente también está en peligro si la IA tiene problemas con casos complejos o retrasa intervenciones críticas”, afirma.

Incluso las grandes empresas tecnológicas están, en su mayoría, aún lejos de una adopción significativa. “Creemos que la IA agéntica multimodal es el futuro”, afirma Caiming Xiong, vicepresidente de investigación de IA e IA aplicada de Salesforce.

La IA multimodal significa que la IA de los agentes puede manejar algo más que texto. Ya existen plataformas de IA generativa que pueden manejar imágenes, audio e incluso vídeo. “Hay mucha información que no se puede describir sólo con texto”, afirma.

Pero los sistemas de IA multiagente aún están en fase experimental o se utilizan de forma muy limitada. Un caso de uso interno de la IA agéntica en Salesforce es el desarrollo de software. “Utilizamos nuestro propio modelo y el marco de trabajo que nosotros mismos construimos”, afirma Xiong. “Pero no creo que vayamos a sustituir a nuestros desarrolladores. No se puede confiar completamente en el código desarrollado por la IA, pero vamos a mejorar la productividad y la calidad, y los asistentes de codificación agéntica pueden ayudar a nuestros desarrolladores junior a ser más profesionales”.

También hay un marco de agentes que puede reunir información de distintas fuentes para responder preguntas, resolver problemas de los clientes o sugerir los siguientes pasos, dice. En este caso, los modelos back-end son GPT 4 y GPT 3.5 de OpenAI. Para mantener la IA agéntica en el buen camino, Salesforce está utilizando todas las barreras que ya tiene para la IA genérica.

“Analizamos todas las preguntas y respuestas”, afirma Xiong. “Analizamos la toxicidad, el sesgo, y buscamos la inyección rápida”.

Además, hay controles de seguridad y acceso para asegurarnos de que los agentes no intentan acceder a información que no deberían.

“También tenemos controles para asegurarnos de que su acción es algo que está autorizado a ejecutar”, afirma. “Tenemos esos componentes integrados en el marco del agente, para asegurarnos de que no está haciendo algo mal”.

Pero eso no significa que vaya a ser perfecto, así que hay supervisión humana incorporada. Por ejemplo, se puede pedir a un humano que confirme que una determinada acción debe ejecutarse.

“Y en la parte de desarrollo, tenemos equipos que hacen evaluaciones antes de que nada entre en producción”, dice.

Cualquier nuevo sistema tendrá que cumplir con los guardarraíles que Salesforce ha construido, confirma Juan Pérez, CIO de la compañía.

“Construimos toda una capa de confianza en nuestras soluciones de IA generativa”, dice Pérez. “Y tenemos una práctica de seguridad paraguas y una práctica de privacidad que guía todo lo que hacemos”. También hay un consejo de IA, añade, compuesto por personas de toda la empresa de los ámbitos legal, de privacidad, el grupo de uso ético de la IA, gente de datos, tecnólogos y usuarios empresariales.

Mientras tanto, también existe la posibilidad de que los sistemas multiagente sean más seguros que los modelos de IA genéricos monolíticos, afirma Xiong.

“Si tienes un solo sistema y te lo piratean, sería un desastre enorme para una empresa”, afirma. “Pero si tienes cien o mil agentes y uno de ellos es pirateado, no pasa nada”.

Además, cada agente puede optimizarse para sus tareas específicas. Si un LLM está optimizado para un propósito concreto, el rendimiento puede resentirse en otras áreas, pero con varios agentes, una tarea puede aislarse y mejorarse.

Agentes en producción

La mayoría de las empresas que despliegan agentes de IA no lo hacen como parte de un proceso completo de IA agéntica de extremo a extremo, afirma Craig Le Clair, analista de Forrester.

“Acabo de hablar con 30 bancos y empresas de inversión y todos dijeron lo mismo: ‘No estamos listos para dar todo un proceso a la IA generativa’”. En su lugar, dice, las empresas están añadiendo agentes de IA a los procesos centrales existentes donde todo el proceso está bajo el control de un agente de proceso tradicional. Por ejemplo, un proceso de negocio puede requerir la generación de un correo electrónico basado en cierta información, y la IA generativa puede utilizarse para crear un mensaje más personalizado, con otros agentes de IA recogiendo otras pequeñas piezas.

El nivel más avanzado de sistemas autónomos cerrados de extremo a extremo -el equivalente empresarial de un coche autoconducido- aún no ha llegado, afirma Le Clair. Pero algunas empresas dicen que se están acercando a ese punto. Indicium, una consultora de datos global con sedes en Nueva York y Brasil, es una empresa que ya cuenta con sistemas de IA agéntica en producción. Estos agentes de IA sirven tanto a usuarios internos como a clientes, afirma Daniel Avancini, director de Datos de la empresa.

Los agentes se utilizan para consultar y cruzar datos de diversas fuentes, como Moodle, GitHub, Bitbucket, wikis internos y el almacén de datos Snowflake de la empresa. Utilizan IA generativa para interpretar preguntas complejas e identificar las fuentes de datos más relevantes.

“Por ejemplo, uno de nuestros agentes puede extraer información de nuestra wiki interna, cruzarla con datos de nuestros repositorios de código y, a continuación, validarla con nuestros datos analíticos para ofrecer respuestas completas a las consultas empresariales”, explica. “Algunos de nuestros agentes más avanzados pueden realmente construir soluciones basadas en procesos existentes”.

Por ejemplo, un agente puede crear un grafo acíclico dirigido en Airflow a partir de una descripción de las necesidades de canalización de datos, lo que implica tareas complejas de varios pasos.

Otros agentes se encuentran aún en fases piloto, entre ellos uno que puede analizar repositorios de código y sugerir optimizaciones basadas en las mejores prácticas y en datos históricos de rendimiento.

El marco principal para construir estos agentes es LangChain, dice Avancini, e Indicium utiliza su componente LangGraph, que ofrece un control granular sobre los procesos de toma de decisiones de sus agentes.

“Podemos crear un gráfico en el que el agente analice primero la consulta del usuario, luego decida qué fuentes de datos consultar, ejecute las consultas necesarias y, por último, sintetice la información en una respuesta coherente”, explica. “En cada paso, podemos implementar puntos de decisión y opciones alternativas”.

Para alimentar estos agentes, dice Avancini, se prefieren los modelos OpenAI y Anthropic, pero la estrategia de despliegue es agnóstica de la nube. “Podemos implementar nuestros agentes en AWS, Azure o GCP, dependiendo de los requisitos específicos del proyecto”, dice. “Accedemos a estos modelos directamente a través de sus API o a través de servicios en la nube como AWS Bedrock o Azure OpenAI”.

Para el monitoreo y la observabilidad, la compañía utiliza LangSmith de LangChain, que permite a Indicium rastrear el rendimiento, identificar los cuellos de botella e iterar rápidamente.

“En algunos casos, particularmente para la creación rápida de prototipos o cuando trabajamos con partes interesadas menos técnicas, empleamos herramientas de desarrollo visual”, dice Avancini. “Azure AI Studio, por ejemplo, nos permite ensamblar agentes visualmente y luego exportar los resultados como código. Esto puede ser particularmente útil cuando estamos explorando nuevas arquitecturas de agentes o demostrando conceptos a los clientes”.

Para gestionar los requisitos de memoria de los sistemas de agentes, Indicium utiliza bases de datos vectoriales, como Pinecone.

“Estas bases de datos nos permiten almacenar y consultar de forma eficiente grandes cantidades de datos no estructurados, algo esencial para muchas de nuestras aplicaciones de IA”, afirma. “Para manejar documentos no estructurados, utilizamos herramientas como LlamaParse para ayudarnos a extraer información significativa de una variedad de formatos de documentos”.

Indicium también ha construido conectores personalizados para plataformas de mensajería populares, para que los agentes puedan interactuar mejor con los usuarios.


Read More from This Article: Los agentes de IA transformarán procesos y encararán riesgos
Source: News

Category: NewsAugust 22, 2024
Tags: art

Post navigation

PreviousPrevious post:Moderate IT budget increases have CIOs shaping 2025 strategies to suitNextNext post:I CIO diventano green: ecco come valutano gli investimenti IT per la sostenibilità

Related posts

Barb Wixom and MIT CISR on managing data like a product
May 30, 2025
Avery Dennison takes culture-first approach to AI transformation
May 30, 2025
The agentic AI assist Stanford University cancer care staff needed
May 30, 2025
Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
May 30, 2025
“AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
May 30, 2025
“ROI는 어디에?” AI 도입을 재고하게 만드는 실패 사례
May 30, 2025
Recent Posts
  • Barb Wixom and MIT CISR on managing data like a product
  • Avery Dennison takes culture-first approach to AI transformation
  • The agentic AI assist Stanford University cancer care staff needed
  • Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
  • “AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.