Avro es un sistema de serialización de datos desarrollado dentro del proyecto Apache Hadoop. Proporciona una estructura de datos enriquecida, un formato de datos binario compacto y rápido, un archivo contenedor para almacenar datos persistentes, llamadas a procedimientos remotos (RPC) e integración sencilla con lenguajes dinámicos. Avro utiliza JSON para definir tipos de datos y protocolos, y serializa la información en un formato binario compacto. Su uso principal se encuentra en Hadoop, donde se emplea para servicios de serialización e intercambio de datos. Avro es especialmente adecuado para aplicaciones que requieren evolución de esquemas, ya que almacena el esquema junto con los datos. Esto permite a los lectores procesar la información incluso si el esquema ha cambiado desde que se escribieron los datos. Las capacidades de evolución de esquemas de Avro, combinadas con su eficiente formato binario, lo convierten en una opción popular para el almacenamiento e intercambio de datos en entornos de Big Data. Admite tipos de datos complejos y está diseñado para ofrecer un alto rendimiento tanto en la lectura como en la escritura de datos. Los archivos Avro se utilizan a menudo para almacenar grandes conjuntos de datos de manera distribuida.