T260130-0358
Go言語SQLPythonGoogle Cloud PlatformSparkAWSTerraformJava

データエンジニア(AWS × GCP)

単価
詳細はお問い合わせください
働き方
常駐/ハイブリッド
場所
その他
期間
長期

【案件概要】

データレイク / ETL 基盤の構築、AWS Glue(Apache Spark)による分散処理、ETL 開発、S3 / Lake Formation を用いたデータ管理・セキュリティ設計、BigQuery ベースの DWH 環境整備、AWS → GCP 間データ連携パイプラインの最適化、BigQuery によるデータモデリング・クエリ最適化、IaC を軸としたマルチクラウド管理、Terraform による環境差分管理・自動化、品質管理・運用効率化、Airflow などのワークフロー管理と CI/CD 整備、データ品質テストの自動化

【開発環境】

AWS環境 (S3, IAM, VPC), GCP (BigQuery, IAM/ネットワーク設定), AWS Glue (Apache Spark), Terraform, Airflow, MWAA, Delta Lake, Iceberg, Hudi, Kinesis, Firehose, Pub/Sub

【必須スキル】

【募集要項・条件】

【必須スキル】AWS 環境でのインフラ構築・運用経験(S3 / IAM / VPC など)、GCP での構築経験(特に BigQuery と IAM/ネットワーク設定)、BigQuery を用いた分析 SQL 実務経験(パーティショニング/クラスタリング)、AWS Glue(PySpark)での ETL 開発・パフォーマンスチューニング、Terraform による IaC 実践(マルチクラウド or 複数環境)。【尚可スキル】BI ダッシュボード構築(Looker Studio 等)、Airflow / MWAA での複雑なジョブ管理、データレイクハウス設計(Delta Lake / Iceberg / Hudi)、ストリーミング処理(Kinesis / Firehose / Pub/Sub)、Python / Go / Java でのツール開発。【備考】外国籍不可。商流:御社1社先まで。年齢:30代まで。《求められる人物像》自身の関わるコンテンツに愛と情熱を持って取り組める方、自ら率先して課題を見つけ、遂行できる行動力がある方、コミュニケーションスキルの高い方、勤怠に問題のない方。