政治研究・調査のためのOSINTツール:アルゼンチンの文脈から考える | Codebook|Security News
Codebook|Security News > Articles > 脅威インテリジェンス > 政治研究・調査のためのOSINTツール:アルゼンチンの文脈から考える

脅威インテリジェンス

Cyber Intelligence

Intelligence

OSINT

政治研究・調査のためのOSINTツール:アルゼンチンの文脈から考える

佐々山 Tacos

佐々山 Tacos

2024.03.01

政治研究・調査のためのOSINTツール:アルゼンチンの文脈から考える

本記事は、アルゼンチンメディア「Revista Crisis」の政治研究チーム「EdiPo」が公開している資料『INTELIGENCIA ABIERTA』の英語版を日本語に翻訳したものです。この資料では、証拠収集や不正行為の摘発、および現代社会に影響を与えるネットワークの追跡に関わる人々や組織により実施される政治、社会、政策の調査・研究の分野におけるオープンソースインテリジェンス(OSINT)ツールおよび検証技術の重要性と役割が取り上げられています。アルゼンチンの社会・歴史的文脈を踏まえた内容になってはいるものの、万国共通の情報や知識も含まれますので、日本の読者の皆様にも参考にしていただければ幸いです。

 

なお、冒頭の「背景」では主にアルゼンチンの文脈や政治研究・調査の意義などがやや難解な表現で長々と語られているため、もう少し具体的にOSINTやDorkingについて知りたいという場合はこちらのリンクまたは「目次」内のリンクをクリックして該当部分まで飛んでいただくことをお勧めします。

背景

政治的領域を調査する目的は、現代の権力の「顔」と輪郭を、今日の議論や闘争の中に表れ出るそのさまざまな姿および役割に基づいて描写することです。調査においてはこうした権力の構成要素、メカニズム、同盟関係を複数人が協力してマッピングすることでこれまでの変遷を辿ることができ、これにより、市民権の拡大を、あるいは後退の阻止を志す市民社会組織の自衛や戦略立案に役立ち得る有益な知見を形成することが可能になります。

アルゼンチンにおいて上記の流れは、最後の市民・軍事独裁(1976〜1983年)崩壊後、国内各地における人権運動により調査が発足したことなどに見る「社会の政治化」という伝統の一部を成しており、「記憶、真実、そして正義」という、叫びであり行動であり手段でもあったスローガンのもとでの有意義な民主化プロセスを形作りました。これは、フェミニズムや環境保護主義、また街頭運動の多様性により強化されてきた、概念としての、また実体としての民主主義です。また、権利や生活様式を制限しようとする保守的で権威主義的な前哨を前に、日々至るところで見受けられた、論争の的たる民主主義です。

「現代における暴力から自らの身を守るにはどうすればいいのか?」という問いを前に私たちは、公開討論を豊かなものにし、市民社会からの応答を強めるようなツール、情報、そして研究結果を生み出します。深層分析に注力するやり方を選ぶにせよ、あるいは権力や影響力のマッピングを行ってより広い範囲の全体像を探るような形式を採用するにせよ、政治的領域の調査・研究が目指すのは、闘争の過程やその経時性と結びついた、現存する分野横断的な経験に名前を付けることです。

この文脈においては学術的な、またジャーナリスティックな調査/研究のテクニックが土台として重要であるとはいえ、それらだけでは不十分です。分野を跨いで相互を繋ぎ合わせるのと併せて、データ収集と分析を連携させる手法を用いることで、種々の紛争に対する戦略的かつ注力的な視点を養うことができます。そして、さまざまな野心や活動家による運動の実践の結果として純正さを失った各分野間の緊張関係の中からは、介入や実験的試行が行き来するような領域が浮かび上がってきます。

調査は、その対象が政治に関わっていることや、調査が生み出す集合的で分野横断的で、かつ四方八方に波及するような力が政治的であることから「政治的な行為」とみなされます。ただしそれだけではなく、調査においては情報の存在する空間全体が戦略的な議論の場であると想定されるという事実もまた、調査が政治的なものとされる所以です。

調査という行為を通じて、暴力を特定、記録、報告できるようにするための、また証拠を社会的に積み上げていくというプロセスを通じて自らの身を保護できるようにするための、集団的かつ相互接続的な研究スキルを発達させることが目指されます。これは、情報が少数の有力者による収益化や専有の対象となりがちであり、また憶測や世論操作の源となっている状況において、批判的な視点や代替となるナラティブ、そして戦略的な介入を強化するものでもあります。

どうすれば私たちは、情報へ自律的にアクセスする手段や専有されていた情報を取り戻す力、また情報を処理する能力を確立することができるのでしょうか?なおこれらの手段、力、能力は、データを金銭的利益を生み出すための道具とみなすような資本主義的な価値観に対して、その代わりとなる民主主義的な視点を提供してくれるようなものでなくてはなりません。真の意味でのデータの民主化、つまりデータが商品ではなく公益のための財産へ成り代わった状態を求めて奮闘する取り組みは、法律や国家のレベルにおいてのみならず、具体的な草の根運動を通じても行われるべきです。

無数のデータやその結合から成る漠然とした情報の集まりの中にあっては、敵対者の輪郭は朧げにしか見えてこないかもしれません。しかし、人々の「今」を形作っている暴力の効果というものは反対に、姿形がはっきりしているものです。

中央の階級組織的な統治機構と結びついた国家(または準国家)諜報機関による典型的な秘密裏の調査とは異なり、政治的領域の調査は、社会に関わるデータを誰もが利用できるものへと転換します。これは、自由に利用可能なテクノロジーツールが支える人々の横方向の結びつきを介した、協調的なアプローチによって実現されます。そしてその手法に特徴的なのが、情報が民主化され、分散化されるという点です。

今日においては、携帯電話を所有しており、かつ写真や動画、また音声データの収集に関する基本的な知識を持っている人であれば実質的に誰もが、政治的領域の調査という経験に貢献することができます。テクノロジーは記録および報告という行為を民主化し、世界のどんな場所においても、またごく普通の人々であってもさまざまな出来事や事件を徹底的に調査することができるという状態を作り出すことに寄与してきました。誰もが利用できるようなツールやテクニックを使って集めたり処理したりできる公益情報は、実にたくさん存在します。そしてこの文脈の中で、新たな形の調査への取り組み方や参加の仕方というのが浮上してきます。

私たちは今回、協調的な調査活動へ精力的に取り組み、OSINT(オープンソースインテリジェンス)という手法を使って、インターネット中に散財する情報が作り出す広大な大海原を探求することに焦点を当てていきます。とはいえ、OSINTは単に政治的領域の調査を補強するリソースに過ぎないというわけではなく、その情報源は地域社会に体現されるようなその地に根ざした知識や、専門性の高い技術的あるいは学術的なソースにも及ぶほか、公開ないしは非公開のデータベース、裁判事件の記録、また組織内アーカイブに集積された資料といった情報も、入手が可能なのであればOSINTの情報源となり得ます。

NPO団体Tactical Techの支援のもと、今回私たちは同団体のプロジェクト「Exposing the Invisible」が提供する調査キットに基づいてオンライン調査用の便利なリソースをいくつか紹介します。なおこのキットに関しては、ぜひ隅々までチェックしていただくのがお勧めです。情報が溢れ返り、また情報戦が入り乱れる状況において私たちは、虚偽かもしれない情報に対して疑惑を抱く力、情報が不足している際により多くの情報を見つける力、そしてあまりに情報量が多くなってしまった場合にこれを選り分ける力という、人間社会が有する3種の能力を強化することを目指しています。

OSINT:情報の海に潜り込む

オープンソースインテリジェンス(OSINT)とは、特別なライセンスや許可を得ることなく、誰もが無料または低価格でアクセス、精査、利用できる情報・ツール・メディアに関する基本概念を専門職化させたものです。この場合のインテリジェンスとは、公開されている情報源から得られる情報やデータ、知識を意味します。

OSINTで利用する情報は、何らかの手段で入手できるものだけに限りません。Mercado Libre(訳者注:アルゼンチンのEコマースサイト)などのレビュー、保護されていないツイート、封印されていない法廷文書、あるいは街頭から見た建設現場の様子など、誰もが合法的にアクセス可能なすべての情報がこれに該当します。また、パナマ文書Wikileaks.orgで公開されている情報など、流出して公になった情報も利用します。

「合法的にアクセスできる情報」の意味は、利用者の所在地や立場によって異なります。

OSINTリサーチの重要な側面は、さまざまな情報源から集めた知識を重ね合わせ、関連付けを行う作業に依拠しているという点です。それぞれの情報源を読み解くことで理解が深まる上、調査の背景や対象がより広範にわたる場合、各情報源の重要性は一層増していきます。個々の情報に自由にアクセスできない場合でも、ほかのさまざまな情報源を十分に組み合わせることで、一見して役に立たないと思われるデータを有意義な成果に結びつけることができます。

多くの政府や企業は、情報を公的に登記することが義務付けられています。しかし、これが中央集約型で行われることは少なく、複数の地域や機関に分散されることが多いため、(たとえ各機関が連携していても)これらの情報にアクセスすることはもちろん、データのインデックス化や時系列あるいは地理的な追跡が難しくなっています。とは言え情報の持つ力というのは、ほかの情報と集約できる状態にあってこそ、つまり互いに重要な意味を持つデータセット同士を有機的に組み合わせることが可能な状況でこそ、最も強力になります。

OSINTにおいては(ほかの多くのさまざまな情報も同様に)、情報をオープンかつ透明性が高く、無料で利用できるようにすることの一見して明らかな「公益性」と、個人の私的で機微なデータを悪用から守ろうとすることの「公益性」との間に対立関係があることを覚えておきましょう。多くの人が個人のプライバシーを人権のひとつとみなすように、企業、政府、自然環境についての公開データに無料でアクセスする権利もまた、人権の一種と言えるかもしれません。おそらくこのジレンマは、企業のデータおよび企業によって隠されてしまうことが多い情報資産の保護を、自然人に関するデータの保護から適切に切り離せるようになるまで解消しないものと思われます。

OSINTリサーチでは多くの場合、創造性と直感が必要です。さまざまなデータセットがどこで結び付いているのかを確認したり、有用な情報が潜んでいるかもしれない場所を想像したり、行き詰まったとしてもそこから新しいソースを探したりする作業を何度も繰り返します。ときには、探している、あるいは必要とする情報がOSINTで手に入らないこともあります。それでも複数の情報を重ね合わせ、新たな文脈を手繰り寄せるだけでなく、データプールにわずかでも詳細な情報を追加したり、新しい場所に目を向けたりすることで、目指すべきところへ到達できる場合がほとんどです。OSINTのリソースは、すべて一緒に活用するとパズルのピースのようにぴたりと噛み合ったり、あるいは光化学反応が起こったかのようにひとつのイメージを浮かび上がらせたりすることがあります。OSINTリサーチのテクニックを使うことで、一見して役に立ちそうにない、または無関係に思われるオープンデータは非常に強力なツールへと生まれ変わる場合がある上、重要な調査を推し進めるために活用できるようになるかもしれないのです。

簡単な作業ではないことはわかっています。情報を証拠、知識、行動、正義に変えるには、時間と労力、根気と勇気が欠かせません。それでも私たちは、この努力が必要だと信じています。私たちの現在を、そして未来を定義付ける問題を詳しく調べることは、きわめて重要です。

Dorking

Dorkingとは、基本的に高度なオンライン検索のことを指します。検索エンジンの潜在能力をフルに活用して、通常の検索(「パンケーキの作り方」のような質問文、あるいは「パンケーキ レシピ」などのキーワードを入力して情報を探す一般的な検索方法)では得られない結果を引き出す手法です。

いくつかのキーワードと検索「演算子」を使えばクエリに磨きをかけることが可能で、これにより、オンラインで利用可能なWebページ、データベース、文書を閲覧する際の検索精度が向上します。Dorkingを使い、隠しファイルやさまざまなWebサイトの欠陥を探し出すために求められるのは、多くの技術的な知識を身につけることよりも、いくつかテクニックを学び、それをいろいろな検索エンジンで使うことなのです。

「Dorking」の仕組みとは?

技術的要素と意味的要素を組み合わせてクエリの精度を上げる「Dorking」は、Webコンテンツがマシンに常時スキャンされ、インデックスされているという事実を最大限に活用します。

「Dorking」を行うために必要なのは、コンピューターとインターネット接続、適切な検索構文についての基礎知識、つまり検索結果を絞り込むために使えるキーワードや記号(「前置演算子」または「フィルター」と呼ばれることもあります)を理解することだけです。ただし、これを効果的に実行するには、粘り強さと創造性、忍耐力、そして運が必要になる場合もあります。

「前置演算子」とは、検索バーで検索語句の前に追加する特別なテキストを指します。

Dorkingの実践

「前置演算子」に基づくDorkingの例をいくつかご紹介しましょう。

例えば「site:https://www.worldbank.org filetype:pdf」というクエリを使うと、World Bankのサイト内で拡張子「.pdf」を持つファイルの検索が行われます。つまり、ファイルの種類を指定してフィルタリングし、調査の対象を絞り込むことができます。

 

以下は前置演算子を使ったシンプルなDorkingの一例です。「https://tacticaltech.org」を対象に、このドメインでホストされているすべてのインデックス済みPDFファイルを検索します。

  • site:tacticaltech.org filetype:pdf

 

次の例では、ドメイン「tacticaltech.org」内にあって、タイトルに「invisible」という単語が含まれるすべてのWebサイトが検索結果として返されます。

  • site:tacticaltech.org intitle:invisible

 

複数の単語で構成された検索語句を使う必要がある場合、その検索語句を引用符で囲むことができます。

  • site:tacticaltech.org intext:exposing intitle:“the invisible”

 

以下のように、通常の検索語句と組み合わせることもできます。

  • exposing site:tacticaltech.org あるいは
  • exposing site:tacticaltech.org filetype:pdf

このケースでは「exposing」が通常の検索語句で、「site:」と「filetype:」で検索結果を絞り込んでいます。

 

フィルタリングに使うキーワード(コマンド)は必ずコロン(:)で終わり、その後に検索語句が続くことに注意してください。コロンの前後にスペースは不要です!

 

多くの情報にアクセスすることは大きな倫理的責任を伴います。これらのテクニックを責任ある方法で使えば調査を発展させることができますが、その反対に個人情報の取得や脆弱性の悪用などに使うこともできます。どんなことでも同じですが、使う側の意図が問われます。

 

最も広く使用されている検索エンジンと、これらの検索エンジンで最も一般的かつ使いやすい「Dorking」コマンドを以下にまとめました。

お勧めする検索エンジンは、プライバシー保護を重視したDuckDuckGoです。DuckDuckGoはユーザーの個人情報を収集しない方針を掲げており、ユーザーが特定されない方法でしかクエリを保存しません。とはいえ、機微性の高い調査を行う場合は、さらにプライバシー保護を強化するため、DuckDuckGoとTorブラウザを組み合わせて使うのが理に適っています。また、DuckDuckGoはGoogleほど頻繁にTorブラウザのユーザーをブロックしたり、CAPTCHA認証を要求したりすることがありません。

一部の検索エンジンでは、検索語句と下表のフィルターの表記順が重要になります。より正確な、あるいは関連性の高い結果を得るには、さまざまな組み合わせを試すことをお勧めします。

以下のリストにすべての演算子が網羅されているわけではありませんが、Dorking入門に適していると思われるものをご紹介します。

表:Google、DuckDuckGo、YahooおよびBingでのDorking演算子

演算子

説明 Google  DuckDuckGo  Yahoo 

Bing 

cache:[URL]

検索エンジンのキャッシュからWebページのバージョンを表示する。

related:[URL]

指定したWebページに類似したWebページを検索する。

info:[URL]

類似したページ、ページのキャッシュされたバージョン、ページにリンクされたサイトを含め、指定したWebページについてGoogleが保有している情報を表示する。

site:[URL]

指定したドメインと、そのすべてのサブドメイン内のページのみ検索する。

intitle:[指定したいキーワード(以下、「テキスト」)] または allintitle:[テキスト]

インデックスされたタイトルタグの一部に指定したキーワードを含むページを検索する。この演算子をBingで使う場合、コロンとクエリの間にスペースを入れる必要がある。

allinurl:[テキスト]

インデックスされたURLの一部に特定のキーワードを含むページを検索する。

meta:[テキスト]

メタタグに特定のキーワードが含まれるページを検索する。

filetype:[ファイル拡張子]

特定のファイル形式で検索する。

intext:[テキスト]、allintext:[テキスト]、inbody:[テキスト]

ページのテキストを検索する。BingやYahooではinbody:[テキスト]、DuckDuckGoではintext:[テキスト]、Googleではintext:[テキスト]かallintext:[テキスト]のいずれかのクエリが使用できる。

inanchor:[テキスト]

リンクのアンカーテキストを検索する。

location:[ISOコード] または loc:[ISOコード]、region:[リージョンコード]

特定の地域を検索する。例えばBingではlocation:[ISOコード]かloc:[ISOコード]、DuckDuckGoではregion:[ISOコード]を使う。ISOコードとは、その国を表す短いコードを指すもので、例えばエジプトはeg、米国はusとなる。

https://en.wikipedia.org/wiki/ISO_3166-1

contains:[テキスト]

指定されたファイル形式へのリンクを含むサイトを特定する(例:contains:pdf)。

altloc:[ISOコード]

サイトの言語で指定されたものに加えて位置情報を検索する(例:pt-usあるいはen-us)。

feed:[フィードのタイプ、つまりRSS]

検索語句に関連するRSSフィードを検索する。

hasfeed:[URL]

検索対象の語句と、1件以上のRSSまたはAtomフィードの両方を含むWebページを検索する。 ✓  

ip:[IPアドレス]

特定のIPアドレスでホストされているサイトを検索する。

language:[言語コード]

指定した言語で検索語句に一致するWebサイトが返される。

book:[タイトル]

キーワードに関連した書籍のタイトルを検索する。

maps:[地名等]

キーワードに関連した地図を検索する。

linkfromdomain:[URL]

指定したURLにリンクが掲載されているWebサイトを表示する(エラーあり)。

そのほかの例については、こちらのサイトの「Files Containing Juicy Info」をご覧ください。

防衛的なDorking

Dorkingは自身のデータや、自分が管理しているWebサイトを保護するために使うこともできます。これは「防衛的なDorking」と呼ばれるもので、以下に挙げる2つのうち、いずれかのパターンで実施される場合がほとんどです。

 

①自分が管理するWebサイトやFTPサーバーなど、オンラインサービスにおけるセキュリティ脆弱性をチェックするというパターン:Webページ「Google Hacking Database(GHDB)」には、検索により特定の脆弱性を見つけるためにフィルター「site:[自身のサイトのURL]」と組み合わせて使うことのできる、さまざまなキーワードやほかの語句が掲載されています。こういった検索は、攻撃者によって脆弱なサービスを特定するための手段として使われるかもしれない一方で、Webサイトの管理者が自分のサイトを保護する上でも役立ちます。

 

②自分が管理するWebサイトであるかどうかに関わらず、あるサイトに意図せず流出した可能性のある自身あるいは他人に関する機微情報を、本人の許可を得た上で検索するというパターン:機微な情報を検索するためにはまず、フィルター「site:[自身のサイトのURL]」と併せて、以下のシンプルなコマンドを使ってみるといいでしょう。その後「site:」のフィルターを解除して、このサイト以外にも自身や自組織に関する情報を流出させているWebサイトがないか確かめるのがお勧めです。以下にいくつかの例を挙げます。

 

なお、自身の名前や住所、そしてID番号を検索する場合、こういった情報は検索エンジンの運営側に渡されることになります。Torを使ってもこの種の情報漏洩を防ぐことはできません。

 

  • PDF文書から自身の名前を検索するには、次のコマンドを使用します。 <自身の名前> filetype:pdf
  • 上記の検索コマンドは、ほかに関連性があると思われるファイル形式(xls、xlsx、doc、docx、odsまたはodtなど)でも繰り返して使うことができます。さらに次のコマンドを使うことで、一回の検索で複数の異なるファイル形式の文書を探すこともできます。 <自身の名前> filetype:pdf OR filetype:xlsx OR filetype:docx
  • または次のようなコマンドで、通常のWebサイトのコンテンツから自身の名前を検索することができます(上記の表より、使用する検索エンジンがテキスト検索用フィルターとしてintext:inbody:のどちらを使っているのかをご確認ください)。 <自身の名前> intext:”<電話番号や住所などの個人情報>”
  • 自身のサーバーのIPアドレスに関連する情報を検索することもできます。 ip:[自身のサーバーのIPアドレス] filetype:pdf

 

そのほかの例については、Exploit Database内のFiles Containing Juicy Infoリストをご覧ください。

 

すべての高度な検索技術で、上記のようなプレフィックスフィルターや前置演算子が使われているわけではありません。

 

  • 検索語句に引用符(”…”)を付けると、一字一句合致する結果を返すよう検索エンジンに指示することができます。この方法は、ほぼすべてのエンジンで有効です(例:“farmacias de guardia en Buenos Aires” / “pharmacies on duty in Buenos Aires” / “ブエノスアイレスで営業中の薬局”)。
  • 検索語句の間に大文字の「OR(スペイン語検索の場合は「O」)を挟むと、検索エンジンではどちらかの語句を含んだものが結果として表示されます(例:“farmacias O droguerías en Buenos Aires”“pharmacies or drugstores in Buenos Aires” / “ブエノスアイレスの薬局またはドラッグストア”)。
  • 引用フレーズにアスタリスク「*を付けるとワイルドカードとして機能し、検索エンジンでアスタリスクの代わりにほかの文字や別の任意の用語を含む検索結果が表示されます(例:“pharmac* on duty in Buenos Aires” / “farma* de turno en Buenos Aires” / “ブエノスアイレスで営業中の薬*”)。アスタリスクは複数の文字に置き換えられます。
  • 語句の前に「-(マイナス)」を付けると、その用語を除いた検索結果が表示されます(例:“pharmacies on duty in Buenos Aires -homeopathy” / “ブエノスアイレスで営業中の薬局 -ホメオパシー”)。マイナス「-」はNOTとして機能する一方で、プラス「+」はANDとしての役割を果たします。

リソース

検証

何事も鵜呑みにせず、自分の思い込みを疑ってみましょう。

情報はさまざまな形態をとり、多様な媒体に現れます。画像や動画、音声、書面証言、Webページなど、例を挙げればキリがないほどです。そして各媒体ごとに、検証を進める上で役に立つツールやテクニックのほか、特別なノウハウがいくつかあります。とは言え、調査を始める前にそれぞれの媒体について一から十まで学ばねばならないというわけではありません。調査を進める中で多くの発見があるはずですし、実践を通して学びを得ることもできます。

はじめに、次のような質問をご自身に問いかけることをお勧めします。

確実に知っていることは何か?

画像の場合:

  • 誰が、いつ、どのカメラで、どこで撮影したのか? 加工されていないとなぜわかるのか? 何者かがこの画像を使って他人をミスリードしようとすることはあり得るか?
  • 画像に写っている人物や物体、出来事が、調査している特定の日、時間、場所のものであり、該当のインシデントであることを本当に確認できるのか?
  • その問題は争点になっているのか? この情報を広めることで得する者がいるのか? 誰かが確認をとらずに注目してくれることを期待して、偽情報を拡散しているグループがいるかもしれない。

 

情報を見つけたらすぐに保存し、アーカイブすることが大切です。検証を行う前に写真や動画をダウンロードしたり、(情報がソーシャルメディアやWebサイト、メッセージアプリなどにある場合は)投稿のスクリーンショットを撮影したりしましょう。作成者は、自身がミスを犯したこと、あるいは自分の情報が公開状態になったことに気付くと、その投稿を削除する可能性があります。

 

情報の検証には主に3つの段階があります。

  • 情報源を検証 – どこで情報を得たのか、大元の出所はどこなのか
  • 内容を検証 – タイトルやディスクリプションなどで説明されている通りの内容なのか
  • 関連性を検証 – 自分が行っている調査に適した情報なのか

リソース

検証テクニックの幅を広げるには、次のリソースをチェックしてみるのも良いでしょう。

オンラインコンテンツをアーカイブする

Webサイトが閉鎖されたり、Webページのコンテンツが変更されたり、重要なリンクが切れたりすることで、過去に閲覧した可能性のある情報を見失ってしまうことがあります。それでも、幸いなことに古いオンラインコンテンツや削除されたWebページを簡単に検索できる方法がいくつかあるので、こういった情報も調査に役立てることができます。またさまざまな方法やツールを使えば、現時点でアクセス可能なページを保存しておくこともできるので、内容が将来変更されたり削除されたりしても後で再度アクセスすることができます。

さらに、Webサイトの古いバージョンを自動的にアーカイブするサービスがいくつかあります。こういったデジタルアーカイブには多くの場合、コンテンツに加えてWebサイトの管理者名や調査に有益な人名、連絡先情報、文書、ほかのWebサイトへのリンクなど、その他の重要なデータを見つけるのに役立つ情報が含まれています。

これらのサービスの中には、好きな時に手動でWebページを保存することで、サービスがWebサイトのリストをアーカイブすることを支援できるものもあります。これによって保存者本人やほかの利用者は、保存されたWebページやWebサイトのコピーおよびスクリーンショットを後で復元することができます。

リソース

過去のオンラインコンテンツを復元する、あるいは後日参照できるようにオンラインコンテンツをアーカイブする上で役立つ重要なツールを以下にご紹介します。

 

  • The Internet Archive:世界最大のデジタルアーカイブで、過去にアーカイブされたコンテンツを検索したり復元したりすることができます。
  • WayBack Machine:Internet Archiveのツールであり、インターネット上のWebページを手動で保存・アーカイブしたり、アーカイブされたWebサイトを復元したりすることができます。Webページの画像やグラフィックのアーカイブおよび表示を行う機能に欠点がいくつかありますが、特定のWebページを保存する場合に手動でオプションを選択すれば、そのようなページのスクリーンショットを撮影することができます。
  • Archive Today:アーカイブされたオンラインコンテンツの保存や復元を行うためのオンラインツールで、WayBack Machineに似た機能を持っています。Archive Todayは各Webページのスクリーンショットを自動で撮影するので、画像やグラフィックをより簡単に保存できます。WayBack Machineとは異なり、Archive Todayは要求があった時にしかスナップショットを保存しません。つまり、ユーザーが手動でアーカイブしたWebページのみが保存されることになります。
  • インターネット上のアーカイブされたコンテンツを保存したり復元したりする方法の概要については、「Exposing the Invisible: The Kit」内のガイド『Retrieving and Archiving Information from Websites』をご覧ください。

地理位置情報

写真や動画の地理位置情報を見つけるプロセスをジオロケーションと言いますが、この方法を学習・実践するため、また具体的な場所やイベントの画像を特定・検証するためのガイドやツールは多くあります。まずは以下のガイドをご覧いただくことをお勧めします。

 

ジオロケーションには、写真や動画の撮影場所を特定するための十分な観察力と、忍耐力、そして可能性のある場所を見つけるために検索すべきキーワードや画像要素を特定する調査能力が必要です。検索の際には以下のような、イベントや場所の位置を特定するためのさまざまな無料オンラインツールを利用できます。

その他のリソース

    メタデータの分析と保存

    メタデータとは、あるファイル(それが画像や文書、録音、地図、またはその他のファイルであれ)の属性を説明する情報です。画像ファイルを例に挙げると、「コンテンツ」とはその画像の目に見える要素を指し、画像が撮影された日付、場所、撮影に使われたデバイスなどの情報が「メタデータ」と呼ばれます。

    (写真、動画、文書、その他の種類のファイルの)メタデータは簡単に変更できるので、証拠としては脆弱です。というのも、大元の出所や日付、時間などその他の情報に基づいて当該メタデータの信憑性を証明・検証し、正確に確認することは必ずしも容易ではないためです。

    次に、画像に最初に埋め込まれたメタデータの表示、検証、編集または安全な記録や保存に役立つツールをいくつかご紹介します。

    リソース

    以下は、証拠として使用する画像のメタデータを安全にキャプチャ、保存、共有するためのツールです。

    • eyeWitness(https://www.eyewitness.global/):残虐行為があったことを証明できる写真や動画を撮影する記録アプリです。
    • Save(https://open-archive.org/save):利用者の個人情報を保護しつつモバイルメディアを保存・共有することを支援するアプリです。無料かつオープンソースであり、iOSとAndroidで利用可能です。
    • Proofmode(https://proofmode.org/):写真や動画を安全かつ署名入りの視覚的な証拠に変換するアプリです。

     

    以下は、画像のメタデータを表示、検証または編集するツールです。

    • Phil Harvey氏のExiftool(https://exiftool.org/):利用者が自身のコンピューターでダウンロード・使用できるメタデータのビューア兼エディタです。メタデータの読み取りに加えて写真や動画のメタデータの書き込み、編集を行うことができます。機微性の高い資料を取り扱う際、メタデータの閲覧目的で画像をインターネット上にアップロードする必要がないので、ほかのビューアより安全に使用できます。
    • Image Verification Assistant(https://mever.iti.gr/forensics/index.html):Web上で画像を検証するためのツールです。
    • Fotoforensics(https://fotoforensics.com/):オンライン画像解析ツールで、画像が置き換えられているかどうかについてメタデータを検証したり、情報を得たりすることができます。(検証のために画像をアップロードする際はご注意ください。機微な情報を扱う場合や、デジタル空間で検知されるのを避けたい場合は利用しないでください。)

     

    以下は、画像のソースを検証・特定する画像の逆検索用ツールです。

     

    検証目的でウェブに画像をアップロードする際はご注意ください。他人の目に触れさせたくない画像をアップロードすることは推奨されません。また、デジタル空間における匿名性を維持したい場合もお勧めしません。

    クレジット

    著者:EdiPo / Revista Crisis

    本記事は、クリエイティブ・コモンズ・ライセンス(表示4.0 国際/CC BY-SA 4.0 DEED)のもとで掲載されています。

    • 本記事のオリジナルコンテンツは、Revista Crisis(アルゼンチン)のEdIPo(政治研究チーム)によって、2023年6月〜7月にTactical Techのサポートを受けて作成されたスペイン語の文献(”INTELIGENCIA ABIERTA”)です。このコンテンツは、上述のCC BY-SA 4.0ライセンスのもと、営利目的も含めて共有や翻案が許可されています。
    • 本サイト(Codebook)では、Tactical TechのExposing the Invisibleチームによりスペイン語から英語へと翻訳されたバージョン(”OSINT Tools for Online Political Research: the Context of Argentina”、2023年8月14日公開)を日本語に訳したものを掲載しています。なお日本語訳にあたっては、オリジナルのスペイン語バージョンも一部参照しています。

    Special Feature特集記事

    Cyber Intelligenceサイバーインテリジェンス

    Security情報セキュリティ