- Analytique›
- Amazon Data Firehose›
- Tarification
Tarification d’Amazon Data Firehose
Pourquoi Amazon Data Firehose ?
Avec Amazon Data Firehose, vous payez uniquement le volume de données ingérées via le service. Il n’y a aucun frais d’installation ni d’engagements initiaux. Il existe quatre types d’utilisation à la demande avec Data Firehose : ingestion, conversion de format, diffusion vers VPC et partitionnement dynamique. Des frais de transfert de données supplémentaires peuvent s’appliquer.
Calculateur de prix AWS
Calculez le coût de votre Amazon Data Firehose et de votre architecture en une seule estimation.
Direct PUT et KDS comme source d’ingestion
La fonction de base d’un flux Firehose est l’ingestion et la diffusion. La tarification de l’ingestion est échelonnée et facturée par Go de données intégrées et par incréments de 5 Ko (un enregistrement de 3 Ko est facturé 5 Ko, un enregistrement de 12 Ko est facturé 15 Ko, etc.). Il n’y a aucun frais supplémentaire Data Firehose pour la diffusion, sauf si des fonctions optionnelles sont utilisées.
Ingestion du MSK comme source
La fonction de base d’un flux Firehose est l’ingestion et la diffusion. La tarification de l’ingestion est échelonnée et facturée par Go ingéré, sans augmentation de 5 Ko. La tarification est échelonnée et facturée par Go en fonction de la valeur la plus élevée entre les octets ingérés et les octets diffusés. La facturation est basée sur le volume de données, il n’y a pas d’arrondissement de la taille des enregistrements.
Journaux payants comme source d’ingestion
Pour les enregistrements provenant de journaux payants, la tarification de l’ingestion est échelonnée et facturée par Go de données ingérées sans incréments de 5 Ko.
Conversion de format (optionnelle)
Vous pouvez activer la conversion de format JSON vers Apache Parquet ou Apache ORC à un taux par Go basé, sur les Go de données intégrées en incréments de 5 Ko.
Diffusion vers VPC (optionnelle)
Pour des flux Firehose avec une destination au sein d’un VPC Amazon, vous serez facturé pour chaque heure d’activité de votre flux Firehose dans chaque zone de disponibilité. Chaque heure partielle est facturée en tant qu’heure entière.
Partitionnement dynamique pour la diffusion vers Amazon S3 (optionnel)
Vous pouvez activer le partitionnement dynamique pour regrouper les données en continu en partitionnant les clés de vos enregistrements (telles que customer_id), et transmettre les données groupées par les clés de partitionnement aux préfixes Amazon S3 correspondants. Avec le partitionnement dynamique, vous payez en fonction de la quantité de données traitées par le biais du partitionnement dynamique et par objet livré à Amazon S3. Si vous utilisez l’analyseur JQ pour le partitionnement dynamique, vous payez par heure de traitement pour l’analyse JQ.
Décompression des journaux CloudWatch (facultatif)
Pour les enregistrements provenant de CloudWatch Logs, si la décompression est activée, la décompression est facturée par Go décompressé.
Snowflake comme destination
Pour les flux Firehose configurés avec Snowflake comme destination, la quantité de données traitées vers la destination vous sera facturée. Le prix est facturé par Go ingéré, sans incréments de 5 Ko. La tarification dépend de la valeur la plus élevée entre les octets ingérés et les octets diffusés.
Apache Iceberg Tables comme destination
Pour les flux Firehose configurés avec Apache Iceberg Tables comme destination, la quantité de données traitées vers la destination vous sera facturée. Le prix est facturé par Go ingéré, sans incréments de 5 Ko. Si les octets de données traités avant la livraison sont supérieurs aux octets ingérés en raison d’un traitement Lambda personnalisé, les octets supplémentaires sont également facturés. Les octets supplémentaires sont facturés au même débit que celui indiqué dans Kinesis Data Streams comme source vers les tables Apache Iceberg comme destination pour toutes les sources d’ingestion, y compris le Direct PUT.
-
Direct PUT
-
Kinesis Data Stream comme source
-
Vended Logs comme source
-
MSK comme source
-
Direct PUT
-
-
Apache Iceberg Tables comme destination
-
Snowflake comme destination
-
Autres destinations
-
Apache Iceberg Tables comme destination
-
-
Snowflake comme destination
-
-
Autres destinations
-
-
-
Kinesis Data Stream comme source
-
-
Apache Iceberg Tables comme destination
-
Snowflake comme destination
-
Autres destinations
-
Apache Iceberg Tables comme destination
-
-
Snowflake comme destination
-
-
Autres destinations
-
-
-
Vended Logs comme source
-
-
Apache Iceberg Tables comme destination
-
Autres destinations
-
Apache Iceberg Tables comme destination
-
-
Autres destinations
-
-
-
MSK comme source
-
-
Apache Iceberg Tables comme destination
-
Autres destinations
-
Apache Iceberg Tables comme destination
-
-
Autres destinations
-
-
Exemples de tarification
Tarification de l’ingestion ayant pour source Direct PUT et KDS
Taille d’enregistrement de 3 Ko arrondie au palier de 5 Ko de données intégrées le plus proche = 5 Ko
Prix pour les 500 premiers To par mois = 0,032 € par Go
Go facturés pour l’ingestion = (100 enregistrements/seconde * 5 Ko/enregistrement)/1 048 576 Ko/Go * 30 jours/mois * 86 400 seconde/jour = 1 235,96 Go
Frais d’ingestion mensuels = 1 235,96 Go * 0,032 €/Go = 39,55 €
Prix d’ingestion pour MSK en tant que source
Taille d’enregistrement de 2 Ko (pas d’incréments de 5 Ko)
Prix pour les 500 premiers To par mois = 0,050 € par Go
Go facturés pour les données d’ingestion (en supposant le même volume de données que les données de livraison) = (100 enregistrements/sec * 2 Ko/enregistrement)/1 048 576 Ko/Go * 30 jours/mois * 86 400 sec/jour = 494,38 Go
Frais de volume de données mensuels = 494,38 Go * 0,050 €/Go = 24,71 €
Tarification de l’ingestion ayant pour source les journaux payants
Taille d’enregistrement de 0,5 Ko (500 octets) = 0,5 Ko (sans incréments de 5 Ko)
Prix pour les 500 premiers To/mois = 0,148 € par Go
Go facturés pour l’ingestion = (100 enregistrements/seconde * 0,5 Ko/enregistrement) / 1 048 576 Ko/Go * 30 jours/mois * 86 400 secondes/jour = 123,59 Go
Frais d’ingestion mensuels = 123,59 Go * 0,148 €/Go = 18,29 €
Tarification de Snowflake en tant que destination
Taille d’enregistrement de 0,5 Ko (500 octets) = 0,5 Ko (sans incréments de 5 Ko)
Prix par Go livré à Snowflake (ingéré depuis Kinesis Data Streams) = 0,083 € par Go
Go facturés pour l’ingestion = (100 enregistrements/seconde * 0,5 Ko/enregistrement) / 1 048 576 Ko/Go * 30 jours/mois * 86 400 secondes/jour = 123,59 Go
Frais d’ingestion mensuels = 123,59 Go * 0,083 €/Go = 10,25 €
Tarification des tables Apache Iceberg comme destination
Taille d’enregistrement de 0,5 Ko (500 octets) = 0,5 Ko (sans incréments de 5 Ko)
Prix par Go fourni aux tables Apache Iceberg à partir de Kinesis Data Streams comme source = 0,050 USD par Go
Go facturés pour l’ingestion = (100 enregistrements/seconde * 0,5 Ko/enregistrement) / 1 048 576 Ko/Go * 30 jours/mois * 86 400 secondes/jour = 123,59 Go
Frais d’ingestion mensuels = 123,59 Go * 0,050 €/Go = 6,17 €
Tarification de la conversion de format : JSON en Parquet ou ORC (optionnel)
Taille d’enregistrement de 0,5 Ko (500 octets) = 5 Ko (après arrondissement)
Prix pour les 500 premiers To/mois = 0,13 € par Go
Go facturés pour l’ingestion = (100 enregistrements/sec * 5 Ko/enregistrement)/1 048 576 Ko/Go * 30 jours/mois * 86 400 s/jour = 1235,9 Go
Frais d’ingestion mensuels = 123,59 Go * 0,13 €/Go = 16,06 €
La conversion de format de données est un module complémentaire optionnel à l’ingestion de données qui utilise les Go facturés pour l’ingestion afin de calculer les coûts.
Prix par Go de données intégrées converties = 0,019 €
Frais de conversion de format mensuels = 1 235,96 Go * 0,019 €/Go converti = 23,48 €
Tarification de la diffusion vers VPC (optionnelle)
La livraison dans un VPC est un module complémentaire facultatif à l’ingestion de données et utilise les Go diffusés à la destination dans un VPC pour calculer les coûts.
Prix par Go diffusé à destination en VPC = 0,0098 €
Prix par heure AZ pour la livraison de VPC = 0,011 €
Frais de traitement mensuels du VPC = 1 235,96 Go * 0,0098 €/Go traité = 12,11 €
Charges horaires VPC mensuelles = 24 heures * 30 jours/mois * 3 AZ = 2 160 heures * 0,011 €/heure = 23,76 € Total des frais VPC mensuels = 35,87 €
Tarification du partitionnement dynamique (optionnel)
Le partitionnement dynamique est un module complémentaire facultatif à l’ingestion de données. Il utilise le nombre de Go traités via le partitionnement dynamique, le nombre d’objets fournis à S3 et, éventuellement, les heures de traitement JQ pour calculer les coûts. Dans cet exemple, nous supposons que des objets de 64 Mo sont diffusés à la suite de la configuration de l’indice de mémoire tampon du flux Firehose.
Si vous utilisez des fonctionnalités facultatives, telles que la transformation des données à l’aide de Lambda, la conversion de format ou la compression, dans votre flux Firehose, la quantité de données traitée via le partitionnement dynamique peut être différente de la quantité de données ingérées depuis la source ou de la quantité de données livrées à la destination. Ces étapes supplémentaires de traitement des données effectuées avant et après le partitionnement dynamique pourraient faire la différence.
Prix par Go traité via le partitionnement dynamique = 0,028€
Prix pour 1 000 objets S3 livrés 0,005 € = 0,007 €
Prix par heure de traitement JQ = 0,099 USD
Go mensuels traités via le partitionnement dynamique = (3 Ko * 100 enregistrements/seconde)/1 048 576 Ko/Go * 86 400 secondes/jour * 30 jours/mois = 741,58 Go
Frais mensuels pour les Go traités via le partitionnement dynamique = 741,58 Go * 0,028 € par Go traité via le partitionnement dynamique = 20,76 €
Nombre d’objets diffusés = 741,58 Go * 1 024 Mo/Go/Taille d’objet de 64 Mo = 11 866 objets
Frais mensuels pour les objets livrés à S3 = 11 866 objets * 0,007 €/1000 objets = 0,083 €
Frais mensuels pour JQ (si activé) = 70 heures JQ consommées par mois * 0,099 €/heure de traitement JQ = 6,93 €
Tarification du partitionnement dynamique (optionnel)
Le partitionnement dynamique est un module complémentaire facultatif à l’ingestion de données. Il utilise le nombre de Go traités via le partitionnement dynamique, le nombre d’objets fournis à S3 et, éventuellement, les heures de traitement JQ pour calculer les coûts. Dans cet exemple, nous supposons que des objets de 64 Mo sont diffusés à la suite de la configuration de l’indice de mémoire tampon du flux Firehose.
Si vous utilisez des fonctionnalités facultatives, telles que la transformation des données à l’aide de Lambda, la conversion de format ou la compression, dans votre flux Firehose, la quantité de données traitée via le partitionnement dynamique peut être différente de la quantité de données ingérées depuis la source ou de la quantité de données livrées à la destination. Ces étapes supplémentaires de traitement des données effectuées avant et après le partitionnement dynamique pourraient faire la différence.
Prix par Go traité via le partitionnement dynamique = 0,028€
Prix pour 1 000 objets S3 livrés 0,005 € = 0,007 €
Prix par heure de traitement JQ = 0,099 USD
Go mensuels traités via le partitionnement dynamique = (3 Ko * 100 enregistrements/seconde)/1 048 576 Ko/Go * 86 400 secondes/jour * 30 jours/mois = 741,58 Go
Frais mensuels pour les Go traités via le partitionnement dynamique = 741,58 Go * 0,028 € par Go traité via le partitionnement dynamique = 20,76 €
Nombre d’objets diffusés = 741,58 Go * 1 024 Mo/Go/Taille d’objet de 64 Mo = 11 866 objets
Frais mensuels pour les objets livrés à S3 = 11 866 objets * 0,007 €/1000 objets = 0,083 €
Frais mensuels pour JQ (si activé) = 70 heures JQ consommées par mois * 0,099 €/heure de traitement JQ = 6,93 €
Décompression des journaux CloudWatch
CloudWatch Logs envoie les données au format compressé gzip. La fonctionnalité de décompression Data Firehose permet de décompresser les données et est facturée par Go de données décompressées.
Utilisation mensuelle = 10 To de données CloudWatch Logs décompressées
Prix par Go décompressé = 0,00364 €/Go en IAD
Frais de décompression mensuels = 10240 Go *0,00364 €/Go = 37,27 €
Contrat de niveau de service
Pour en savoir plus sur le contrat de niveau de service Amazon Data Firehose, consultez notre FAQ.