スクレイピング × スプレッドシート連携自動化ツール

面倒なデータ収集作業を、たった数クリックで「取得 → 保存 → 共有」まで自動処理!

実装した機能の概要

  • 対象Webサイトのデータを自動で取得(Selenium + BeautifulSoup)
  • CSV形式でローカルに保存+Googleスプレッドシートに即反映(Google Sheets API)
  • ファイル保存時の確認メッセージ+完了通知つき(tkinter GUI)
  • 実行環境に応じて動的にディレクトリを切り替え、環境問わず実行可能
  • エラーが発生しても最大3回まで自動リトライ、ログ出力ありで安心運用
  • Windowsタスクスケジューラにも対応。完全自動実行も可能です。

利用例(実装内容)

天気予報サイトから、各地域の天気をスクレイピングし、
→ 自動でCSVに保存
→ Googleスプレッドシートにアップロード
→ 毎日の確認・共有作業がほぼゼロに。

技術的なポイント(抜粋)

  • Selenium によるブラウザ操作 + BeautifulSoup によるHTML解析
  • configparser を用いた設定ファイルによる柔軟な構成
  • Google Sheets API によるクラウド共有の自動化
  • GUI通知(tkinter)で非エンジニアにも使いやすい
  • エラー発生時にはログを記録し、復旧もスムーズ

開発環境

  • プログラミング言語: Python
  • 主なライブラリ: Selenium, BeautifulSoup, Google API関連ライブラリ(google-auth, google-api-python-client)
  • 実行環境: Windows 11
  • 開発ツール: Spyder
  • バージョン管理: GitHub