T260202-0372
Google Cloud PlatformSparkTerraformHadoop

データ連携基盤の刷新PJ

単価
詳細はお問い合わせください
働き方
常駐/ハイブリッド
場所
その他
期間
長期

【案件概要】

DWHおよびクラウドサービスを活用したデータ連携基盤の刷新を実施。Snowflake、Databricks、GCP等を用いたデータパイプライン設計・構築を担当。

【開発環境】

DWH、クラウドサービス(Snowflake, Databricks, GCP)、データパイプライン

【必須スキル】

【募集要項・条件】

DWH(BigQuery/Redshift/Snowflake等)の設計・構築経験、Snowflake、Databricks、クラウドネイティブサービス(GCP Cloud Composer等)を利用したデータパイプライン開発経験。尚可:Apache Airflow、dbt等のデータパイプライン構築ツール利用経験、Terraform等によるIaC実践経験、CI/CDの知識・経験、ビッグデータ技術(Hadoop、Spark、PySpark等)の知識、顧客とのコミュニケーション能力、主体性・積極性。外国籍不可、50代まで希望。