T260224-0420
Go言語SQLPythonAirflowGoogle Cloud PlatformSparkAWSTerraformJava

データエンジニア(AWS × GCP)

単価
詳細はお問い合わせください
働き方
常駐/ハイブリッド
場所
その他
期間
長期

【案件概要】

データレイク / ETL 基盤の構築 ・ AWS Glue(Apache Spark)による分散処理 ・ ETL 開発 ・ S3 / Lake Formation を用いたデータ管理・セキュリティ設計 ・ BigQuery ベースの DWH 環境整備 ・ AWS → GCP 間データ連携パイプラインの最適化 ・ BigQuery によるデータモデリング・クエリ最適化 ・ IaC を軸としたマルチクラウド管理 ・ Terraform による環境差分管理・自動化 ・ 品質管理・運用効率化 ・ Airflow などのワークフロー管理と CI/CD 整備 ・ データ品質テストの自動化

【開発環境】

AWS環境, GCP, BigQuery, AWS Glue(Apache Spark), S3, Lake Formation, DWH, Terraform, Airflow, CI/CD

【必須スキル】

【募集要項・条件】

AWS 環境でのインフラ構築・運用経験(S3 / IAM / VPC など), GCP での構築経験(特に BigQuery と IAM/ネットワーク設定), BigQuery を用いた分析 SQL 実務経験(パーティショニング/クラスタリング), AWS Glue(PySpark)での ETL 開発・パフォーマンスチューニング, Terraform による IaC 実践(マルチクラウド or 複数環境), BI ダッシュボード構築(Looker Studio 等), Airflow / MWAA での複雑なジョブ管理, データレイクハウス設計(Delta Lake / Iceberg / Hudi), ストリーミング処理(Kinesis / Firehose / Pub/Sub), Python / Go / Java でのツール開発, 商流:御社1社先まで, 外国籍不可, 自身の関わるコンテンツに愛と情熱を持って取り組める方, 自ら率先して課題を見つけ、遂行できる行動力がある方, コミュニケーションスキルの高い方, 勤怠に問題のない方