伊藤言の研究・教育活動について
2018/03/20 by Gen

日本社会心理学会 春の方法論セミナー (2018) 経験サンプリングのレクチャーの関連資料

[最終更新日 2018/03/22]

 

発表スライドはこちら

・印刷の都合上,詳細な引用文献欄はスライドでは省略させていただきました。

レファレンスはこちらをご覧いただけますと幸いです。

・ご来場いただきました皆様,どうもありがとうございました。後日,方法論セミナーの公式サイトにおいて録画映像のYoutubeにおける公開があるかと思いますので,ご興味のある方は今しばらくお待ちください。

 

■関連資料

・分析の際に使用したKane et al. (2017, Psychol Sci)のオープンデータ

・以下のものも必要に応じてご参照ください。

以前書いたPACOに関する記事

日本心理学会 (2017)「明日からできる経験サンプリング法ー効率的なデータ収集と洗練した解析で移ろう心を描き出すー」における発表資料

参加者リクルーティングのビラのサンプル

 

 

◆PACOの操作方法・インストール方法を日本語で説明した資料が欲しい

 PACOを用いた経験サンプリング研究の終了後に公開しました。これは,PACOの開発者の方が公開されている配布用マニュアルを日本語化したものです。ご自身の研究に合わせて改変してご使用ください。パワーポイントファイルです。

iPhoneを利用している人向けのマニュアル

Androidを利用している人向けのマニュアル

 

 

■PACOのサンプルが見たい

 PACOをインストールした後に、 m@genito.net まで「PACOサンプル希望」とメールの件名に書いて送信してください(かならずGoogleアカウントのメールアドレス(@gmail.com等)でメールを送ってください。本文は空欄で結構です)。こちらがお送りいただいたメールアドレスをPACOのサーバーに登録すると、PACOのサーバーに登録してある経験サンプリングのサンプルをご覧いただけます。

 

  •   •   •   •   •
2016/05/23 by Gen

経験サンプリング・Ecological Momentary Assessment的手法を使うなら、PACOというアプリがベストチョイス

[最終更新日 2016/05/23]

 

■記事の要約

 無料で経験サンプリングを簡単に・手軽に行いたい場合、現時点での最適解はPACOというアプリを利用すること(だと思います)。PACOはGoogle社の社員が社会科学研究の振興を目的として立ち上げたアプリ(システム)であり、Android, (現在は)iPhone両対応。研究者はこのアプリに質問項目のデータを送り込んで経験サンプリングの調査としてパッケージ化できます。写真情報(iPhoneでも取得可)、GPS情報やアプリ使用履歴情報(これらはAndroidのみ可能?)も手軽に取得可能。ただし、iOS端末のアプリの方が制限がキツい(これはアップル社のセキュリティの厳しさを反映してのもの)。

 

■はじめに

 数日間にわたって、1日に複数回参加者に「なにしてる?なに考えてる?」と尋ね、参加者の日常経験をランダムにサンプリングすることによって、参加者の日常経験全体の性質を推測する方法である経験サンプリング(Experience Sampling; 別名Ecological Momentary Assessment)。この手法を用いた研究が心理学界隈で増加している印象があります。私自身も同手法を用いた3回目の研究を行うに際して、同手法を用いる際に役立ちそうな情報をまとめておきます。

 

 まず非常にまとまって丁寧に書かれたものとして、以下のHPと文章を挙げることができるでしょう。

スマートフォンを使用した経験サンプリング法:手法紹介と実践報告(尾崎由佳・小林麻衣・後藤崇志)

尾崎先生のHPにおける経験サンプリング法のtipsの紹介

 

■経験サンプリング法を行うときの大変さ

 私の経験としては、尾崎先生のHPに書かれているGoogleグループとメーラーの送信日時指定機能を利用した経験サンプリング調査を一度行っています。うまくいきましたが(心より感謝いたします)、なかなかに大変でした。まず参加者を4グループに分けたとして、送信日時を4×送信シグナル分(1日5回×7日間であれば35回)、メーラーかサーバーにセッティングする。今現在であれば、尾崎先生のページに書かれているパソコンにインストールするメーラーであるthunderbirdに送信予約を行うよりも、Gmailのサーバー側の送信日時指定機能アドインを利用した方が良いでしょう。これならば、一度Gmailのサーバーにセッティングしてしまえば、パソコンの電源を切っても良いし、ネット接続環境すらなくても大丈夫です。自分のパソコンやネット接続が落ちると研究計画が狂う、というのはとても怖いものです。

 

◆何が大変だったかというと、

・140回分(グループ×シグナル分)送信予約を行う大変さ

・Googleフォーム等の入力フォームを送信予約分複数用意し、シグナルごとに回答フォームの回答期限を時刻設定し、取得したデータを個別に多数ダウンロードし、それらを統合する大変さ

・送信エラーが生じた際の大変さ

・Emailでシグナルを送信すると、参加者がなかなか反応してくれない(PCのEmailアドレス(@gmail.com等)はスマートフォンに派手な通知をもたらさないから参加者がシグナルに気づきにくい。他方、携帯アドレスのEmail(@docomo.ne.jp, @ezweb.ne.jp等)は、いくら設定を周知したとしてもメールの着信拒否のエラーが頻発する)

・グループ分けした上でのランダム送信は、疑似ランダム化にすぎない

・参加者の生活サイクル(早起きする人もいれば遅起きする人もいる)ごとにタイムウィンドウを設定できない

といった点です。もちろん、尾崎先生のページで紹介されているSurveysignal等のSMS送信システムを利用すればこのような問題の大部分は回避できるかもしれません。しかし、私が試したところ、Surveysignalは日本では動作が安定せず、また送信料として 1 通あたり$0.10 が課金される(もし 100 名の対象者に一日 7 回×7 日間のメッセージ送信を行った場合、$0.10×100×7×7=$490 かかる)のはなかなかに高額です。

 

■とにかく試してみた→PACOがイチオシ

 そこで、スマートフォンを利用した経験サンプリングに役立つサービスを網羅的にまとめた海外の一覧表

Conner, T. S. (2014, Nov). Experience sampling and ecological momentary assessment with mobile phones. Retrieved from http://www.otago.ac.nz/psychology/otago047475.pdf

で紹介されているサービスを片っ端から試して、実際に経験サンプリングのデザインを組んでみました。その結果、PACOというアプリが優秀であるという結論に至りました。PACOというアプリを参加者がインストールすれば、そこに研究者が研究セットを送り込むことが可能(データの収集も可能)になっています。

 

■PACOの利点

 PACOの素晴らしいところは、

・アプリを利用した経験サンプリングが極めて手軽に実施できること。プログラミングの知識はほぼ不要。しかし、アプリによる通知はとても目立つ(かつ通信ははじめの一度のみでOKな)し、原理的に送信エラー等の問題が発生しない。Email送信方式と比較して明確に利点がある

・Android, iOS両対応であり、スマホユーザーのほとんどすべてをカバーできること

・無料であること

・基本的にGoogleのシステムを利用したサービスなので、動作が安定していること(作者もGoogle社員の方)

・写真などのデータ収集が容易であること。Androidであれば、アプリ使用履歴やGPSデータも手軽に取得できること

・わずらわしいシグナル送信時刻のランダム化問題から解法されること。Pacoであれば、たとえば「朝10時~夜10時の12時間のタイムウィンドウを設定。その上で、1日にX回シグナルを発してね。でも、シグナル間は最低X分間隔を空けてね」といった設定がごくごく簡単にできます。シグナルごとの回答期限の設定やリマインダーのアラームを期限の何分前に出すかも自在に設定しかもSurveysignalとは違って無料です。正直にいえば、Surveysignalの出る幕はないような気がします。

・日本語にまったく文字化けしません。

・研究実施中に、参加者数、参加率=回答者ごとの回答率(回答/シグナル数)や、回答率の低い参加者を瞬時に特定可能。

 

■PACOの欠点

 他方、PACOの欠点としては、

・Google依存のシステムなので、参加者はかならずGoogleアカウント(@gmail.com等)を登録する必要があること(参加者がGoogleアカウントを入力しないと、研究セットが配信されません)

・細かな部分でインターフェースが英語表記なので、参加者に事前にわかりやすく使い方を周知する必要があること(この点は研究デザインによっては大きな支障となるかもしれません)

・質問項目のランダマイゼーションができないこと(あるいはGoogle Scriptのプログラミングスキルがあれば可能なのかもしれませんが、現段階ではよくわかりません)

【以下,PACOを利用した経験サンプリング研究を終えた後に追記】

・アプリがシグナルを発した場合,参加者は設定した制限時間内に回答を行うことができます(これは当然)。しかし,これに加えて,参加者は任意の(好きな)タイミングで自発的に回答を行うことができてしまいます。もちろん,あるひとつの回答がシグナルに対するものだったか参加者が自発的に回答してしまったものだったかはデータとして記録されるのですが,シグナルと無関係な自発的回答を行わないよう参加者に用意周到に告知する必要があります。これはPACOの比較的大きな欠点かもしれません。

・ときどき回答データが重複されて記録されることが(とくにAndroid利用者の回答データの場合に)ありました。回答日時が重複しているデータの処理など,データのトリミングが最後に必要となります。

 

※ちなみに、いろいろ試した結果、iOSに限定したアプリとしてはPIELも無料で優れています。

 

というわけでPACOがイチオシの経験サンプリング手法であり、新たに計画している経験サンプリングはPACOを利用して実施予定です

 

■PACOの使用感

 

◆PACOによって作成された画面はこんな感じです。

IMG_9163 3  4

 

◆参加者がPACOを利用するまでのハードルはこんな感じです。

1.アプリストア(Apps StoreもしくはGoogle Play)でアプリを探し出してインストールしてもらう

IMG_9170

2.PACOを起動するとGoogleアカウントのEmailアドレスを入力する画面があらわれる

IMG_9172

3.すると、このような画面があらわれる

IMG_9167

4.参加者のアカウントが、研究者側があらかじめ次の画面から招待(登録)を行っておいた@gmail.comアドレスである場合、

89e574651fff19817b653b255d08862f

5.参加者のPACOアプリの「Find My Experiments」というところに研究が届いている(2枚前の画像の左上)

6.参加者は参加したい研究名をクリックして、「Join this Experiments」をクリックすれば参加登録完了

IMG_9173 IMG_9174

7.あとは、研究者が指定した時刻になればアプリから通知がやってきます。参加している研究を参加者が確認したい場合は、「Running Experiments」(4枚前の画像の右上)をクリックすれば良い。参加を取りやめたい場合は、研究名をクリックした上で、「Stop Experiment」をクリックすれば参加を中止できる。

IMG_9175

 

■PACOの使い方

・経験サンプリングであれば、基本的にこちらのマニュアルの指示に従えばすぐに完成します。

・GROUPSタブを押して、上のマニュアル(2枚下の画像)にしたがってスケジュールを設定し、ADD INPUTで質問項目を加えるだけで基本的に完成します。

4793409e54be5d00165a235be67bc763

23

 

■PACOに興味を持たれた方へ:いくつかのTips

 最後に、私がPACOで試行錯誤して得たTipsをいくつか紹介しておきましょう。

 

◆ダウンロードした.csvデータが文字化けしている

 csvをダウンロードしてExcelで直接開こうとすると文字化けします(これはGoogleフォームと同様ですね)。基本的にUTF-8でコーディングされているみたいなので、csvをメモ帳で一度開き保存し、そのファイルをExcelでインポートすると何の問題もなく読み込めます。.csvのインポート方法についてはこちら。

 

◆PACOの質問文を改行したい

 PACOはGoogleフォームのように大見出し・中見出し・小見出しといったものを設定できません。ベタっと平文になり、改行も不可能です。これでは質問文が読みにくくなってしまう。そこでどうするかというと、SOURCEタブをクリックして、改行を入れたい質問文のところに \n を打ち込んでやればOKです(2行分改行したければ\n\n)

1

2

 

◆いきなりすべての質問項目が出てくるが、ページ遷移は設定できないのか?

 PACOアプリにはページ遷移という概念がありません。したがって、作成した質問文は一覧として丸見えの状態(スクロールすればすべてが見える状態)になってしまいます。そこでどうすればいいかというと、条件文(conditional)において以下の通り設定を行ってやれば良さそうです。

たとえば、質問文2(input2という変数名が付きます)を、質問文1(input1という変数名が付きます)に回答した人だけに表示したければ、質問文2の表示条件を「input1>=1」(input1で1以上の数字を選択した人、すなわち質問文1の回答者全員)に指定してやればOKです。条件文を設定すればたいていの調査票のデザインは可能です。ただし、項目のランダマイゼーション方法は私はまだ見つけられていません。

 

◆PACOの操作方法・インストール方法を日本語で説明した資料が欲しい

 現在、研究への参加者に配布するための資料を作成中です。完成しましたら近日中に公開予定です。

 →PACOを用いた経験サンプリング研究の終了後に公開しました。これは,PACOの開発者の方が公開されている配布用マニュアルを日本語化したものです。

iPhoneを利用している人向けのマニュアル

Androidを利用している人向けのマニュアル

 

■PACOのサンプルが見たい

 PACOをインストールした後に、 m@genito.net まで「PACOサンプル希望」とメールの件名に書いて送信してください(かならずGoogleアカウントのメールアドレス(@gmail.com等)でメールを送ってください。本文は空欄で結構です)。こちらがお送りいただいたメールアドレスをPACOのサーバーに登録すると、PACOのサーバーに登録してある経験サンプリングのサンプルをご覧いただけます。

 

#なお、PACOを用いたとしても自己報告式のデータがメインになると思います。自己報告式以外のデータの収集 (mobile sensing) については、以下の記事を参照してください。私もあれ以来なかなか苦戦しています。

http://genito.net/?p=1150(SPSP2015で情報収集した役立つツールその他)

 

 

 

  •   •   •   •   •
2013/05/28 by Gen

オンラインでの実験参加者調達/実験や調査を可能にするために – Amazon Mechanical Turkやその他ソフトウェアについて

 

[2016/04/23:心理学研究におけるクラウドソーシングの利用についてまとめられた文献へのリンクをひとつ追加しました]

[2015/11/14更新:Mturkの値上げに応じて追記しました]

[2015/11/02更新:リンクおよび文献情報を増やし,いくつかのリンク切れを修正しました]

 SPSP2013に参加して最も印象的だったのは、英語圏における実験参加者確保や実験実施の方法が、従来の大学生サンプルに依存する方式から、低価格で大量の参加者を調達できるAmazon Mechanical Turk (以下、MTurk)に圧倒的に移行しつつあることでした。

 これは、インターネットで参加者を募り、オンラインでちょっとしたタスク(実験や調査を含む)に参加してもらうAmazonのプラットフォームを利用したものです。「ふつうの大学院生」がさらっと500人近い実験参加者を確保している様は驚きでもありました。日本でもマクロミルとかオンラインのリサーチ会社が結構ありますが、圧倒的に違うのは、金銭的コストです。日本の調査会社はかなりマージンを抜きますが(400人で20万円など)、MTurkの手数料はそれと比べるとごく僅かなものです(参加者に対する支払額の10%のコミッションをAmazonに支払う。支払総額は、1時間拘束しても1~2ドル程度)。参加者確保方法の革命に近いといっても良いでしょう。

 さらに、時間的コストの節約になる点もかなり大きいでしょう。プログラムを組んで投げておけば(自分が実験者として時間を割いて実験を実施しなくても)データが集まってくるので、一晩で400人×1時間分のデータが揃うなど、時間的コストの大きな節約になります。コストの節約になるだけではありません。1つの仮説を十分な数の参加者を用いて検討することができるので、効果量比較、従来サンプル数が少なくて実施が困難であった統計手法等を用いて研究を厳密化できるメリットもあります。大学生サンプルに参加者が偏ってしまうことも防げるでしょう(参照)。実験結果の再現可能性に対する疑義が呈されていますが(参照)、一つの仮説に対する概念的追試のみならず直接的追試を行うことも比較的容易になるでしょう。そう遠くないうちに、日本でも、たとえばIATなど、パソコンの画面に向かわせれば実行可能な類いの実験は、大部分がオンラインに移行するのではないかと感じました。(あるいは、MTurkを利用して、日本に居ながら英語圏の参加者を直接相手に実験をしてしまえば良いのではないでしょうか。文化間比較もローコストに)

 そこで、オンラインでの参加者確保&実験・調査実施に関する情報を、自分の体験談も含め、随時このページにまとめていきたいと思います。

 

<2016/04/23追記>

心理学研究におけるクラウドソーシングの利用(白木・五十嵐、2015)という文献を、この記事と併せて読まれることをオススメします。

</追記終了>

 

<2015/11/14追記>

 Amazon Mechanical Turkは現在値上がりしています。9人までの参加者を募る場合は、参加者に対する支払額の20%のコミッションをAmazonに支払い、10人以上の参加者を募る場合は、参加者に対する支払額の40%のコミッションをAmazonに支払う形になっています(pricing)。この値上げに対して、たとえばTurkPrimeというシステムを利用して募集を小分けしコミッションを20%の見込みのままに抑えようとしたり(90人募集ではなく9人募集×10セットに小分けするシステム)、あるいはMTurkを離脱して別のシステムを利用しようとする動きも活発に起きているみたいです。こちらのスライドもご参照ください(”How to Avoid MTurk’s Extra 20% Price Gouge: A Click-by-Click Guide for Academic Requesters“)

 Mtrukの代替システムの筆頭候補としては、Prolific Academicに注目が集まっているようです(e.g., researchgate)。Prolific Academicは、参加者に対する支払額の10%がコミッションであり、参加者の縦断的追跡も可能なようです(人口構成)。こちらについてもチェックをされると良いかと思います。その他、SocialScicallforparticipants.comcognilab.comなども。

</追記終了>

 

■Links

◆MTurkの本家サイト

Amazon Mechanical Turk

日本語のMTurkのトップページ

 

◆日本でもYahoo!JapanがMTurkに類似したサービスを運営しています。ただしこれは依頼主が法人でなければ依頼できないサービスのようです。

Yahoo!クラウドソーシング

 

◆日本のサイトで,「日本最大級の仕事依頼サイト」を謳っています。個人単位での依頼が可能。実際に心理学実験を依頼している方もいらっしゃるようです()。Qualtricsなど外部サイトに飛ばすことが可能。 (new)

Lancers

 

◆その他,日本で運営されているクラウドソーシングサイト (new)

CrowdWorks

shufti

 

◆MTurkを用いる際の解説と役立つ文献/リンクが整理されているページ。とりあえず目を通してみることをオススメします (new)

Running experiments with Amazon Mechanical Turk (by Gilad Feldman)

 

◆MTurkを利用して実験を行う際に役立つ情報をまとめているブログ

 Experimental Turk

 Deneme: a blog of experiments on Amazon Mechanical Turk

 Behind the Enemy Lines

 CrowdFlower Blog

 

◆NOTES FROM THE AMAZON MECHANICAL TURK TUTORIAL (Selin Kesebir)

Mturk Guidelines (pdf)

 

◆Amazon Mechanical Turk Guide for Social Scientists(Michael Buhrmester)

MTurk Howto (pdf)

 

◆日本でMturkを利用して実験をされた方(山内肇さん)の覚え書き

 http://www.iser.osaka-u.ac.jp/expss21/outcomes/doc/yamauchi.pdf

 

◆ウェブのクラウドサービスを利用して研究を行う際の(倫理的)ガイドライン(Waterloo大学)

https://uwaterloo.ca/research/sites/ca.research/files/uploads/files/crowdsourcing_guidelines_access_check_done.pdf

 

◆調査系に利用する際に役立つtips

Journalist Guide To Crowdsourced Data Collection With Amazon Mechanical Turk

 

 

■オンラインでRTの測定等を可能にするフリーの実験ソフト

 Thanks to “NEW TOOLS: OPEN SOURCE AND PUBLICITY AVAILABLE TECHNOLOGY FOR SOCIAL PSYCHOLOGICAL RESEARCH” (Schubert et al., Symposium in SPSP2013)

Open source, web-based IAT(フリーのウェブベースIAT)

Scripting RT(ウェブベースでRTの取得を可能にするオープンソースのソフトウェア)

 

■MTurkを通じた実験や調査を補助するツール

TurkGate (Thanks to Adam Darlow & Gideon Goldin) : 同一参加者が類似した実験や調査に参加することを防いだり、実験や調査をプレビューすることを防ぐツール(解説

 

インターネット、ないしAmazon Mechanical Turk等を利用して実験や調査を行うことの妥当性等を検証した論文について

 

Reips, U.-D. (2002). Standards for Internet-Based Experimenting. Experimental Psychology (formerly Zeitschrift für Experimentelle Psychologie), 49, 243-256. doi: 10.1027//1618-3169.49.4.243

Birnbaum, M.H. (2004). Human Research and Data Collection via the Internet. Annual Review of Psychology, 55, 803-832. doi: doi:10.1146/annurev.psych.55.090902.141601

Gosling, S.D., Vazire, S., Srivastava, S., & John, O.P. (2004). Should We Trust Web-Based Studies? A Comparative Analysis of Six Preconceptions About Internet Questionnaires. American Psychologist, 59, 93-104. doi: 10.1037/0003-066X.59.2.93

Paolacci, G., Chandler, J., & Ipeirotis, P. (2010). Running experiments on amazon mechanical turk. Judgment and Decision Making, 5, 411-419. [pdf]

Schnobelen, T., & Kuperman, V. (2010). Using Amazon Mechanical Turk for linguistic research. Psihologija, 43, 441-464. [pdf]

Behrend, T., Sharek, D., Meade, A., & Wiebe, E. (2011). The viability of crowdsourcing for survey research. Behavior Research Methods, 43, 800-813. doi: 10.3758/s13428-011-0081-0

Buhrmester, M., Kwang, T., & Gosling, S.D. (2011). Amazon’s Mechanical Turk: A New Source of Inexpensive, Yet High-Quality, Data? Perspectives on Psychological Science, 6, 3-5. doi: 10.1177/1745691610393980

Sprouse, J. (2011). A validation of Amazon Mechanical Turk for the collection of acceptability judgments in linguistic theory. Behavior Research Methods, 43, 155-167. doi: 10.3758/s13428-010-0039-7

Berinsky, A.J., Huber, G.A., & Lenz, G.S. (2012). Evaluating Online Labor Markets for Experimental Research: Amazon.com’s Mechanical Turk. Political Analysis, 20, 351-368. doi: 10.1093/pan/mpr057 [pdf] [appendix]

Mason, W., & Suri, S. (2012). Conducting behavioral research on Amazon’s Mechanical Turk. Behavior Research Methods, 44, 1-23. doi: 10.3758/s13428-011-0124-6

Rand, D.G. (2012). The promise of Mechanical Turk: How online labor markets can help theorists run behavioral experiments. Journal of Theoretical Biology, 299, 172-179. doi: http://dx.doi.org/10.1016/j.jtbi.2011.03.004

Crump, M.J.C., McDonnell, J.V., & Gureckis, T.M. (2013). Evaluating Amazon’s Mechanical Turk as a Tool for Experimental Behavioral Research. PLoS ONE, 8, e57410. doi: 10.1371/journal.pone.0057410 [pdf]

Woods, A. T., Velasco, C., Levitan, C. A., Wan, X., & Spence, C. (2015). Conducting perception research over the internet: a tutorial review. PeerJ, 3, e1058. doi: 10.7717/peerj.1058

三浦麻子・小林哲郎. (2015).  オンライン調査モニタのSatisficeに関する実験的研究. 社会心理学研究, 31, 1-12. doi: 10.14966/jssp.31.1_1

 

オンラインの実験/調査プラットフォームに関連したQ&A(作成中)

 

Q:今すぐにでも日本にいながらMTurkを利用して実験/調査できる?

A:現在の最大の問題は、アメリカ国内の銀行口座にもとづいてアカウントを作成した人しか雇用主になれないことです(雇われる側にはなれます)。アメリカの愛国者法をAmazon.comが慎重に解釈した結果のようなので、短期的に解決される問題ではないでしょう(参照)。CrowdFlower.com等のサードパーティーのサービスを介すことによって日本(アメリカ国外)からも参加者集めが可能になりますが(paypal支払いが可能)、33%のマージンが上乗せになること、また規約上・倫理上の問題に配慮は必要です。カナダのWaterloo大学のガイドラインは非常に参考になります。

 

Q:相場や実際の感じを掴みたい

A:雇われ側(参加者)には誰でもいますぐなれますので、一度MTurkを利用した実験や調査に参加してみると良いのではないでしょうか。心理学実験の場合こちらをご覧ください。雇い主として参加者を雇った場合にかかる実際のコストは、リンク先の”Reward”を1.463倍した額になります(2013/05/29現在)。MTurkに10%、その10%を加算した額をベースとしてCrowdflowerに33%のマージンを支払う必要があるからです。たとえば、実験参加者に0.5ドルを支払う場合、MTurkに0.05ドル(10%)、Crowdflowerに0.18ドル(33%)を支払うことになりますので、総額0.73ドルとなります。

 

Q:システムのレイヤーを知りたい

A:日本からMTurkを利用したオンライン実験や調査を実施する場合、3つのレイヤーが関わるでしょう。

1.Amazon Mechanical Turk:これは人材紹介マーケット(雇い主と雇われ側を媒介する労働市場)です。ただし、アメリカ国外の人は直接雇い主になれないので、さらに仲介サービスを介する必要があります。

2.Crowdflower:タスクを引き受け、それを小分けして複数のオンライン労働市場に分割して投げる仲介サービスです。日本からMTurkを利用したい場合、Crowdlfowerにタスクを投げ、CrowdflowerがタスクをMturkに投げるという形になります。

3.データ収集システム:1や2が担当するのはあくまで人集めです。さらに、データ収集のためのシステムを構築しなければなりません。Survey Monkey™Qualtrics™ や Inquisit Webといった既存のプラットフォームを利用することもできますし、自前でサーバーを立てて工夫することも可能です。ScriptingRTなどのフリーソフトが関わるのはこのレイヤーです。

 

Q:MTurkを利用して参加者を確保する際に特に気をつけることは?

A:MTurk等のクラウドサービスのポリシーを自己の責任において遵守する必要があることに気をつけましょう。たとえば、MTurkのポリシーには主立ったものとして以下の内容が含まれています。

・個人情報やEmailアドレスを直接的・間接的に尋ねてはダメ(したがって、参加同意書で氏名・アドレスを尋ねるのもダメ)
・他のウェブサイトやグループへの登録を求めてはダメ
・特定のサイトやサービス、思想や意見をプロモートするためのタスクはダメ
・投票行為を求める等してはダメ
・有害な内容(例:性的な内容)には制限がある
・サイトへの訪問、クリックスルーを目的としたタスクはダメ
・知的財産権を侵害するタスクはダメ
・ソフトウェアのダウンロードを求めるタスクはダメ


最後の点はオンライン実験を実施するにあたって微妙なところなのですが、たとえばInquisit Web等の実験実施用プログラム(Java Applet等)を一時的にダウンロードさせて実験を実施することはグレーゾーンとして許容されているようです。

  •   •   •   •   •