現在、私はMacBook Pro M1 (32GB)という最強の相棒と共に、動画編集の副業をこなしています。おかげさまで案件は順調ですが、最近一つ、業務上の課題(ボトルネック)を感じていました。
それは、「新しい案件に応募する際や、既存のクライアントに企画を提案する際に行う、YouTubeの市場調査(リサーチ)の手間」です。
「今、どんなジャンルの動画が伸びているのか?人気YouTuberは、どんなタグを使っているのか?」
これらを調べるために、毎日YouTubeの画面を開き、手動で検索し、再生数をメモし……という作業。数分、時には数十分の作業ですが、これを案件ごとに続けるのは、地味にストレスでした。
私はかつて、C#でのコーディングや、SQLを使ってデータベースを操作していた経験があります。開発がメインではありませんでしたが、プログラミングの論理的な思考や、エラーと向き合う体力は、人一倍あると自負しています。
そんな私が、今の「手動でのリサーチ作業」に対して感じたのは、「これは、自動化(スクリプティング)すべき単純作業だ」ということでした。
「よし、眠っていたプログラミングの知識を呼び覚まし、現代の武器『Python』で、この課題を解決してみよう。」
そう決意した私が挑んだのが、PythonとYouTube Data APIを使った自動化です。
今回は、かつてのプログラミング経験(論理)を活かして、どのようにしてAPI連携という新しい技術を実装し、成果を得たのか。そのリアルなエンジニアリングの過程をお届けします。
この記事を読めば、「技術を武器にする動画編集者」の具体的なイメージが湧き、あなたも新しい一歩を踏み出せるはずです。
なぜ「自動化」が必要だったのか?動画編集者視点でのリサーチ効率化
動画編集の副業において、リサーチは非常に重要です。伸びる動画の傾向を把握していなければ、クライアントに満足してもらえる編集はできませんし、高単価な案件を勝ち取ることもできません。
しかし、リサーチは「直接お金にならない時間」。時間は有限であり、徹底的な効率化が必要です。
「リサーチの手間は減らしたい。でも、情報の質は落としたくない。動画編集の作業時間(コア業務)も減らしたくない。」
この矛盾を解決する唯一の方法が、「リサーチプロセスの自動化・効率化」でした。
毎日ポチポチとYouTubeの画面を開く「手動リサーチ」を廃止し、Pythonスクリプトによる「自動リサーチ」へとシフトする。
それが、私の目指す「副業2.0」のスマートなエンジニアリングです。
今回の相棒:PythonとYouTube Data API(インターフェース)
自動化を達成するために選んだ言語は、もちろん**Python(パイソン)**です。
Pythonは、自動化、データ分析、AI開発に最も強く、初心者でも学びやすいという特徴があります。これからの副業を考えるなら、間違いなく最強の武器になります。
そして、YouTubeのデータをPythonで取得するために欠かせないのが、API(エーピーアイ)です。
エンジニアの方ならお分かりかと思いますが、APIとは、Application Programming Interfaceの略で、乱暴に言うと「YouTubeという巨大な動画データベースに対して、Pythonからクエリを投げるための、標準化された窓口(インターフェース)」です。
SQLで
SELECT view_count FROM youtube_videos WHERE title LIKE ‘%プログラミング%’
と書くように、Python(蛇)がAPI(窓口)を通じて、特定の動画の情報をリクエストする、という仕組み。
まさに、このアイキャッチ画像のイメージです。

蛇(Python)が、カオスなデータの奔流(YouTube)を、APIという近未来的な端子(インターフェース)を使って、美しく整理されたブロック(視聴回数やタグ情報)へと整流している。
この知的で強力な連携(インテグレーション)を、自分の手で実装することが目標でした。
API連携(インテグレーション)までにぶつかった「3つの壁」
「C#やSQLの経験があるから、APIなんて余裕だろう」と高を括っていましたが、現現実には、Google CloudのAPI認証周りの仕様が非常に複雑で、何度もエラーに直面しました。
しかし、ここで私の論理的思考力と、かつて培ったエラーへの耐性が活きました。
エラーが出てもパニックにならず、「なぜこの PermissionDenied(権限拒否)が出るのか?認証鍵のスコープが違うのか、GCP側の設定漏れか?」と、冷静に原因を特定し、一つずつ検証していったのです。
特に、以下の「3つの壁」は、エンジニアとしてのデバッグ能力が試されました。
壁1:Google Cloud Platform(GCP)のコンフィグレーション
APIを使うには、Google Cloud Platform(GCP)という場所で、プロジェクトを作り、サービスアカウントを設定し、APIを有効にし……と、山のような設定が必要です。
「プロジェクトって何?サービスアカウントって、私のGoogleアカウントとは違うの?」
用語は違えど、かつてのC#の開発環境構築や、SQLの権限設定と通じるものがあります。ドキュメントを読み解き、一つずつ設定を「検証(バリデーション)」していきました。
壁2:認証(APIキー)のセキュアな管理
無事に設定ができても、次は「認証」という壁が立ちはだかります。
「これは間違いなくふくラボのPythonからのリクエストです」と証明するために、「APIキー(秘密の文字列)」を使うのですが……。
「もしこのキーが流出したら、私のYouTubeアカウントに悪影響が出るの?」
セキュリティの脆弱性は見逃せません。キーの置き場所を悩んだり、環境変数での管理を検討したり。コーディング以前の、「運用設計」の部分で、足踏みをしてしまいました。
壁3:エラーメッセージ(PermissionDenied)との格闘
そして、いざコードを書いて動かしてみると、ターミナルに赤文字で無情なエラーメッセージが。
googleapiclient.errors.HttpError: <HttpError 403 when requesting https://youtube.googleapis.com/... returned "The request is missing a valid API key.">
「APIキーがない?設定は全部したはずなのに!」
ここで、かつてのデバッグ魂が騒ぎます。エラーメッセージを読み解き、ネットで検索し、GCPの設定画面とコードを突き合わせ、仮説を立てては検証する日々。
結局、原因は「APIキーをコードに入力し忘れていた」という、実に初歩的なものでした。過去の経験がなければ、もっと長い時間、原因不明のエラーに悩んでいたかもしれません。
実際に動かしてみた!コードのポイント(Pandasでのデータ処理)
数日間のデバッグ(検証)の末、ついにその時は訪れました。
詳しいコードは長くなるので割愛しますが、エンジニア視点での重要なポイントだけ紹介します。
使用した主なライブラリは、以下の2つ。
google-api-python-client:Google公式の、YouTube Data APIを扱うためのライブラリ。pandas(パンダス):データを綺麗に表(DataFrame)にしてくれる、データ分析の超定番ライブラリ。
そして、コードの概要はこんな感じです。
- APIキーを指定して、YouTubeサービスに接続。
- 「特定のジャンル(例:プログラミング)で、視聴回数が多い順に5件の動画」をリクエスト。
- 返ってきたデータを、PandasのDataFrameに変換し、整理する。
これだけです。でも、これだけのことが、現代のAPI連携においては、とてつもなく高いハードルでした。
実行ボタンをポチッと押し、ターミナルに……
動画タイトル | 視聴回数 | タグ 伸びる編集術 | 100000 | 動画編集,Python
と表示された瞬間、私は Macの前で思わずガッツポーズをしてしまいました。
「できた……!私のPythonが、YouTube APIという巨大なデータソースに、クエリを通した!」
その感動は、初めて動画編集の案件を納品した時と同じくらい、あるいはそれ以上に、自分の技術力が現代に「リブート(再起動)」した瞬間でした。
自動化して変わった「動画編集リサーチ」の意識
YouTube Data APIをPythonで動かせるようになってから、まだ数日ですが、私の動画編集リサーチの意識は劇的に変わりました。
メリット1:リサーチ時間が「0」に(プロセスの自動化)
毎朝、YouTubeの画面を開いて手動で集計する時間が、完全に「0」になりました。
代わりに、Pythonスクリプトを実行するだけ(または、将将来にはこれも自動実行させる)。数分の作業ですが、毎日の運用コストがなくなったのは、非常に大きいです。
メリット2:情報の質が上がった(データドリブンな判断)
一瞬で大量のデータが出るので、「あ、今は10万再生の動画がこのタグを使っているのか。よし、私もこのタグに合わせた編集を提案しよう!」と、リサーチの「質」がより身近に、具体的に感じられるようになりました。SQLでデータベースを覗いていた時のように、データに基づいた判断ができるようになったのです。
メリット3:モチベーションが上がった(技術による課題解決)
「動画編集案件をこなす」というストイックな目標も大切ですが、こうして「技術(Python)を使って、運用上の不便を解決した」という成功体験は、何物にも代えがたいモチベーションになります。
「次は、これをグラフ化したい」「特定のYouTuberの過去動画をすべて分析したい」と、Pythonという武器を使ってやりたいことが、次々と溢れてきました。
まとめ
20年の時を経て、眠っていたプログラミング魂を呼び覚まし、PythonとYouTube Data APIの連携に挑んだ、今回のプロジェクト。
「3つの壁」にぶつかり、エラーと格闘しましたが、かつてのプログラミング経験(論理)を活かして、無事に現代の技術を「保守運用」することに成功しました。
その先にあったのは、「YouTubeリサーチを、自分の力で自動化できた」という圧倒的な達成感と、スマートな副業への第一歩でした。
ブログ「わたしの副業ラボ」は、これからもエラー(バグ)を恐れず、新しい技術に挑戦し、その「検証過程」をリアルに発信していきます。
もしあなたも、「眠っている技術を呼び覚ましたい」「技術を武器に、動画編集者として次のステージへ行きたい」と思っているなら、ぜひ一緒にPythonを学び、技術という武器を手に、副業を楽しんでいきましょう!
この記事を読んで、API連携(インテグレーション)に興味を持ったあなたへ。
もし過去にプログラミングやSQLの経験があるなら、ぜひ今回のアイキャッチ画像を参考に、自分だけの「副業×テクノロジー」を象徴するAIアイキャッチを生成してみてください! 設定などで分からないことがあれば、お問い合わせから聞いてくださいね。応援しています!
