スクレイピング × スプレッドシート連携自動化ツール

面倒なデータ収集作業を、たった数クリックで「取得 → 保存 → 共有」まで自動処理!
実装した機能の概要
- 対象Webサイトのデータを自動で取得(Selenium + BeautifulSoup)
- CSV形式でローカルに保存+Googleスプレッドシートに即反映(Google Sheets API)
- ファイル保存時の確認メッセージ+完了通知つき(tkinter GUI)
- 実行環境に応じて動的にディレクトリを切り替え、環境問わず実行可能
- エラーが発生しても最大3回まで自動リトライ、ログ出力ありで安心運用
- Windowsタスクスケジューラにも対応。完全自動実行も可能です。
利用例(実装内容)
天気予報サイトから、各地域の天気をスクレイピングし、
→ 自動でCSVに保存
→ Googleスプレッドシートにアップロード
→ 毎日の確認・共有作業がほぼゼロに。
技術的なポイント(抜粋)
Seleniumによるブラウザ操作 +BeautifulSoupによるHTML解析configparserを用いた設定ファイルによる柔軟な構成Google Sheets APIによるクラウド共有の自動化- GUI通知(tkinter)で非エンジニアにも使いやすい
- エラー発生時にはログを記録し、復旧もスムーズ
開発環境
- プログラミング言語: Python
- 主なライブラリ: Selenium, BeautifulSoup, Google API関連ライブラリ(google-auth, google-api-python-client)
- 実行環境: Windows 11
- 開発ツール: Spyder
- バージョン管理: GitHub