Comenzar
repositorio de GitHub de stellar-etl-airflow
Configuración de la cuenta de GCP
La Stellar Development Foundation ejecuta Hubble en GCP utilizando Composer y BigQuery. Para seguir la misma implementación, necesitarás tener acceso al proyecto de GCP. Las instrucciones se pueden encontrar en la documentación de Comenzar de Google.
Nota: BigQuery y Composer deberían estar disponibles de forma predeterminada. Si no lo están, puedes encontrar instrucciones para habilitarlos en la documentación de Google de BigQuery o Composer.
Crear instancia de GCP Composer para ejecutar Airflow
Las instrucciones para desplegar una instancia de GCP Composer para ejecutar Hubble se pueden encontrar en la sección de Instalación y configuración en el repositorio de stellar-etl-airflow.
Los requisitos de hardware pueden variar significativamente dependiendo de los datos de la red Stellar que requieras. La configuración predeterminada de GCP puede ser más alta/baja de lo que realmente se necesita.
Configurando GCP Composer Airflow
Se requieren dos cosas para la configuración e instalación de GCP Composer Airflow:
- Subir DAGs al bucket de Composer Airflow
- Configurar las variables de Airflow para tu configuración de GCP
Para obtener instrucciones más detalladas, consulta la documentación de Instalación y configuración de stellar-etl-airflow.
Subiendo DAGs
Dentro del repositorio de stellar-etl-airflow hay un script shell upload_static_to_gcs.sh que subirá todos los DAGs y esquemas a tu bucket de Composer Airflow.
Esto también se puede hacer utilizando el gcloud CLI o consola y seleccionando manualmente los DAGs y esquemas que deseas subir.
Configurando variables de Airflow
Consulte la documentación de Explicación de Variables de Airflow para más información sobre lo que debería y necesita ser configurado.
Ejecutando los DAGs
Para ejecutar un DAG, solo tienes que activar/desactivar el DAG como se ve a continuación
Más información sobre cada DAG se puede encontrar en la documentación de Diagramas de DAG.
DAGs disponibles
Más información se puede encontrar aquí
DAG de Exportación de Tabla de Historia
- Exporta parte de las fuentes: ledgers, operations, transactions, trades, effects y assets de Stellar utilizando el lago de datos de archivos LedgerCloseMeta
- Opcionalmente, esto puede ingerir datos utilizando captive-core, pero eso no es ideal ni recomendable para su uso con Airflow
- Inserts into BigQuery
DAG de Exportación de Tabla de Estado
- Exporta accounts, account_signers, offers, claimable_balances, Fondos de Liquidez, trustlines, contract_data, contract_code, config_settings y ttl.
- Inserts into BigQuery
DAG de Tablas Base Enriquecidas de DBT
- Crear las vistas de preparación de DBT para los modelos
- Actualiza la tabla enriched_history_operations
- Actualiza las tablas de estado actuales
- (Opcional) advertencias y errores se envían a Slack.