MACS2のインストール

Written by bonohu in misc on 土 21 2月 2015.

ChIPseqな解析でよく用いられるMACS(Model-based Analysis for ChIP-Seq)。てっきりhomebrewにあると思ってbrew install MACS2とかしてみたものの、ない模様。こんな有名なツールがまさか、と思って調べてみたら…別の手段で簡単に入るというオチでした。

オリジナルのINSTALL手順によるとversion2のMACS2だとPython2.7が必須で2.7.2以降が推奨の模様。そして、Numpy の1.6以上が必要とのこと。これが揃っているとあとは

[shell] pip install MACS2 [/shell]

すればmacs2がインストールされるとのこと。これもpythonだったんですね。 Numpyも

[shell] pip install Numpy [/shell]

で入ります。

pipが入っていない?そういう場合は、

[shell] easy_install pip [/shell]

にてインストール。easy_installはpythonを入れると入るはずですが、ない場合は

[shell] brew install python …

Continue reading »


Trinity on docker in Mac

Written by bonohu in misc on 土 14 2月 2015.

- Docker

SPARQLthon29では何故かネットワークの調子も悪く(DHCPが急に取れなくなったり)。容量の大きなFASTQファイルが手元になく、ダウンロードしてくることもかなわず、実行できずじまい。そこで、RNAseqなFASTQファイルを入手してdocker runのテスト。coreos上で [shell] coreos> docker run -it -v pwd:/data aewing/trinity-dockerfile [/shell] を実行。これの意味するところは、-vオプションを用いることで、coreos上の今いるディレクトリを/dataとしてdocker上でmountするということで、データ量の多いこの業界には非常に重要なポイント。 そして、docker上で以下のコマンドを。 [shell] cd trinity ./Trinity --seqType fq --left /data/share/1_1.fastq --right /data/share/1_2.fastq --CPU 12 --JM 24G [/shell …

Continue reading »


SPARQLthon29

Written by bonohu in misc on 金 13 2月 2015.

- Docker

国内版BioHackathon BH14.14に出て、dockerまわりでやることが出てきたので、SPARQLthon参加。今年度最初の方に統合化支援との連携を探る目的で出ていたが、引っ越しやらなんやらで出なくなっていたので、久しぶり。

1日目は、BH14.14においてRefExのRDF化が進められたので、それのフォローアップとそれを使ったユースケースを考えたり。

2日目は、Dockerの利用でどう計算環境の構築が楽になるかを、すでにDockerfileがあったTrinityを例として実体験。実際にどう運用するかを考えたり。今すぐにというのはちょっと厳しそうなので、来る時代に備えておく感じ。

.sraファイルなどのデカいファイルは/のファイルシステムには置けないので、以下のようにdocker runの-vオプション(Bind mount a volume)を使ってdocker上でもマウントされるようにしてファイルを見えるようにする。

[shell] coreos> docker run -it -v pwd:/data inutano/sra-toolkit bash [/shell]

先週からの問題点であった、ファイルが大きすぎて置けない問題は解決。メモリもVagrantfileの

$vm_memory …

Continue reading »


次世代モデル生物

Written by bonohu in misc on 水 11 2月 2015.

これまで、非モデル生物とか、古典的なモデルでない生物とか、いろんな言い方をしてきた。あらゆる生物種のゲノム配列解読が現実的になり、ゲノムやトランスクリプトームが配列情報として得られる2015年になって、これからのモデル生物ということで「次世代モデル生物」と呼ぶことにすべきではないかと、やはりそれを対象に研究を進めているラボを見学しての帰りに思いついた。その次世代モデル生物のゲノムやトランスクリプトーム解析に必要な配列解析技術を開発することが我々の使命であるとこれからは(これまでも実はそうだったのだが)言うようにしてきたい。

Continue reading »


国内版バイオハッカソンBH14.14終了

Written by bonohu in misc on 日 08 2月 2015.

直前のいくつかのエントリを見て分かるように、北海道札幌市の定山渓ビューホテルで開かれた国内版バイオハッカソンBH14.14に参加してきた。BH14.14で取り組もうと思っていた

  1. AOEノムコウにある公共データの網羅的な再計算手法の開発

  2. 非古典的モデル生物の配列(NGS)データ解析手段の開発

の基盤的な技術として有望な、10月の末イルミナ社が主催してDBCLS柏ラボにて開催されたBaseSpace Worldwide Developer Conference in Japanでも使ったDockerを、今度はMacOSX上から使ってみた。

前回はお膳立てしてもらって「写経」していただけだったが、今回はガッツリと時間もあり、具体的にdockerを動かすためのDockerfileを自分でもいくつか書いた。自分でも実際に書いてみて、これらを動かす計算リソースの確保も課題であるが、現場で具体的にどういったデータ解析が必要とされているかを知ることの重要性に気付かされた。この部分は生物学に近い我々が貢献できること。頑張っていきたい。それと、これらの有用かつ再利用可能なDockerfileを活用して必要な計算を自分で動かせる人材の育成。それに関しては、今後のAJACSadvancedにふさわしいコンテンツとなっていきそう。

毎度、得るものが多いバイオハッカソンであるが、それを毎回用意してくれるスタッフの皆さんには頭が下がります。ありがとう。その有用性をもっと認知してもらえるよう、私なりに貢献していきたいという思いを新たに。「隗より始めよ」というとおり、まずは自分からですね。

Continue reading »


BioDockerthon the last day

Written by bonohu in misc on 金 06 2月 2015.

- Docker

国内版Biohackathon(BH14.14)最終日。これまでやってきたことは

にすべてアップ。つくったDocker imageは以下の4つ。

  1. hmmemit

  2. debian-hmmsearch

  3. debian-hmmsearch2 (profileHMMと検索対象DBがdocker runの引数として選べる)

  4. ubuntu-tophat

ubuntu-tophatに関しては、defaultのcoreosでは動かないという問題点あり。現状判明している問題は、メモリとストレージの容量不足。動くように設定ファイルのカスタマイズ等、方策を考えないといけない。それができるようになるとSRAにあるすべてのRNAseqデータの計算(recount)がdockerをつかって可能になるかと。計算リソースがあれば。

当初課題に挙げていたassembler関係は、nucleotid.esにあるということで自分で書く必要はないようだが、それを動かす環境の構築が次なる課題。

Continue reading »


BioDockerthon day4

Written by bonohu in misc on 木 05 2月 2015.

- Docker

国内版Biohackathon(BH14.14)4日目。昨日までのhmmerとは打って変わってより実際的なNGS解析のそれをということで、RNAseqにおけるspliced read mapperとしてデファクト・スタンダードのtophatを実行するそれに挑戦。 tophatのパッケージがdebianにはないらしいということで、ubuntuベースに。昨日まで作っていたhmmsearch用のDockerfileと同様に実行部分はシェルスクリプトに分けて実装。DockerhubのAutomated Buildを利用しているため、ファイル自体はgithubにあるが、再掲。Dockerfileはこんな感じ。

#Docker container for tophat
FROM ubuntu
MAINTAINER Hidemasa Bono, bonohu@gmail.com
# copy run script
ADD tophat.sh /usr/local/bin/run.sh
# Install packages
RUN apt-get update && 
    apt-get install …

Continue reading »


BioDockerthon day3

Written by bonohu in misc on 水 04 2月 2015.

- Docker

国内版Biohackathon(BH14.14)3日目。今日もDockerチームにて。昨日作成したhmmsearchを実行するDockerfileの汎用化。引数としてprofile HMMと検索対象DBを指定できるように。最後の行でしか引数指定できないようなので、別にシェルスクリプト(hmmsearch.sh)を作成するやり方で。ファイル自体は例によってgithubにあるが、再掲。Dockerfileはこんな感じ。

#Docker container for hmmsearch
FROM debian
MAINTAINER Hidemasa Bono, bonohu@gmail.com
# copy run script
ADD hmmsearch.sh /usr/local/bin/run.sh
# Install packages
RUN apt-get update && 
    apt-get install -y …

Continue reading »


Docker on CoreOS on Mac day2

Written by bonohu in misc on 火 03 2月 2015.

- Docker

国内版Biohackathon(BH14.14)2日目。まずは、昨日の続き。DockerfileをDockerHubに表示したいということで、GitHubとDockerHubの連携をやってみる。

まずは、'New repository'から新規に作成し(hmmemitという名前)、必要なファイルをgithubに上げる。 [shell] git add Dockerfile Sod_Cu.hmm git commit -m "first commit" git push -u origin master [/shell]

  • DockerHubの方で'Add Repository'→'Automated Build'

  • 出てきた画面でGitHubを選択

  • DockerHubにリンクするRepository(今回の場合、bonohu/hmmemit)を選択

  • 'Create Repository'を押して、しばらく待つ

bonohu/hmmemitが出来ました。この手順だとdocker buildして動くことを確認したあとにdocker pushをする必要なし …

Continue reading »


Docker on CoreOS on Mac

Written by bonohu in misc on 月 02 2月 2015.

- Docker

国内版Biohackathon(BH14.14)1日目。色々話しあった結果、Dockerチームとして活動することに。これまでローカルに動かしてきた解析スクリプト(レシピ)をDockerfileとして記述していこうかということで。まずは動かし方を。

[shell] brew tap phinze/homebrew-cask brew install brew-cask -v brew cask install virtualbox -v brew cask install vagrant -v git clone https://github.com/coreos/coreos-vagrant cd coreos-vagrant vagrant up && vagrant ssh [/shell] 起動したcoreos上で [shell] coreos> docker run -it …

Continue reading »


配列データセット大量取得と網羅的配列類似性解析

Written by bonohu in misc on 火 20 1月 2015.

古典的なモデルでない生物を実験材料として使う際、当然モデル生物データベースは用意されていないので、自らが配列類似性の解析をする必要がある。色々やり方があるが、Ensemblを利用したやり方を以下に。

[shell] lftp <<-END ftp://ftp.ensembl.org/pub/release-78/fasta/ find END [/shell]

でftpサイトにあるファイルリストを得る。この中のHomo_sapiens.GRCh38.pep.all.fa.gzなどがタンパク質配列のファイルで、それらだけを取ってこれるように以下のようなUNIXコマンドを組み合わせてダウンロードすべきファイルリストを作成する。

[shell] grep /pep/ ls-R.txt | grep all.fa > pep.fa.txt [/shell]

そして、これらの先頭に'GET 'をつけ、 [shell] perl -i~ -pe 's/^./GET ./' pep.fa.txt …

Continue reading »


Plant & Animal Genome (PAG) XXIII 参加

Written by bonohu in misc on 土 17 1月 2015.

個人的には、(どちらかというと)ヒトやそのモデル生物において、post-sequencing(ゲノム配列解読後)な研究ばかり見てきたこの十年だったのですが、次世代シークエンサーが広く使われるようになりこれまで解読されていない新規なゲノム配列解読へ応用されるに及び、より見聞を広めるべきと考え、PAG(Plant & Animal Genome)に初めて参加してきた。 丸々5日間の長丁場で、朝8時からTalkが始まり(朝一はplenary lectureなことが多かった)、その後はconcurrentに複数のセッションがさまざまな会場で行われ、夜は8時〜10時ぐらいまであるものも。なので、自分の興味のあるセッションを取捨選択して、あとは体力勝負。時差ボケからくる脳機能の停止と会場の冷房(冬なのにw)効きすぎによる寒さと戦うことに。 初参加の私には興味深い内容が多く、ゲノム配列解読技術が普通に使われるようになり、このPAGのカバーする(とyn氏に教えてもらった)「ヒト以外」の分野におけるゲノム配列解読の進展に舌を巻いたというのが第一番目の感想。 twitterのハッシュタグ#PAGXXIIIを付けたtweetsも多く、twitterによる企業ブースの宣伝や、発表では見せきれないツールやデータベースなどへのポインタ提示に活用されていた。事実、そのハッシュタグのtweetsを流しているディスプレイが人の集まるロビーに設置されていて、これは是非見ならうべきと。しかしながら、会場が広すぎてどこで何をやっているのかが非常にわかりにくかったり(そもそもタイムテーブルがプログラムになくてわかりにくい)、トイレの場所が不案内だったり、会場内に売店等なかったり、超絶メシマズだったり、ポスター会場が2つに分かれていて片方が企業展示会と同じ部屋なのに対してもう一つの方は天井の低い地下でアクセスが悪かったり、すべてが良かったわけではないことも追記しておく。 参加者は全体で三千人超、日本からも農学関係の研究の方が数十人規模で来ていて …

Continue reading »


2015年の計

Written by bonohu in misc on 日 04 1月 2015.

2014年は職場の二度の引っ越し(3月に1回、4月にもう1回)でバタバタしていたこともあり、講演活動は前年ほど回数はなかったものの、新しく移った先近くで複数回実施することができた。官民問わずDBを使った研究が注目され、それに向けた下準備期間だった印象。

2014年年頭に掲げた目標に関して。「これまではやってこなかった新しいことへの挑戦」としてアッセンブルを手がけ、データ解析のバリエーションを増やすことができた。また、「『知のめぐり』の向上にDBを使いやすくする仕組み」づくりの一つとして久しぶりに紙媒体で出版された物書きもこなし、貢献できたと思う。しかしながら、「コンテンツの作成維持管理に努めていく」ことはこれまでの統合牧場体制からの移行時期となり、自らがコンテンツとなる統合TVは新しいネタで複数貢献できたとはいえ、低調だったことは反省すべき。「他の遺伝研の部門と融合的な活動」に関しても下地づくりだけに終わってしまったので、2年目となる今年以降、実際の活動を充実させていきたい。

そして2015年。学術論文も含めて様々な手段で、現場でDB利用を'method'の一つとした研究が増えていくよう、実例づくりとそれを簡単にする体制づくりに励んでいきたい。とくにDDBJを補完するかたちで、遺伝子発現まわりと古典的なモデルでない生物を対象としたデータ解析。今年もがんばります!

Continue reading »


ダブルクリックしてシェルスクリプト実行

Written by bonohu in misc on 土 27 12月 2014.

MacOSXでシェルスクリプトなどのスクリプト言語をダブルクリックして実行するには、

  1. スクリプトのファイル名に.commandという拡張子を使う(例: hoge.command)

  2. ファイルに実行権を付与する。すなわち chmod +x hoge.command しておく

  3. スクリプトの先頭(二行目以降)にcd dirname $0を入れる

とする。サンプルスクリプトはこんな感じ。 [shell]

!/bin/sh

cd dirname $0 echo "hoge" [/shell] ただ、多くの場合引数としてファイル名を指定する必要等あって、コマンドライン操作を覚えたほうが早い気がしますが…。 また、そのスクリプトがインターネット上からダウンロードしたものである場合、Yosemiteだと「システム環境設定」の中の「セキュリティとプライバシー」の「一般」タブの「ダウンロードしたアプリケーションの実行許可:」を変更しないと動かないことがあるようです。ご注意を。

Continue reading »


tophatのインストール

Written by bonohu in misc on 火 09 12月 2014.

Macosxの場合のtophatのインストールコマンド。もちろん、tophatのサイトからバイナリファイルを取ってきてそれを使うのでもいいのですが、tophatから呼び出される依存関係のあるプログラムも同時にインストールしてくれる点でhomebrewが便利なので、こちらを推奨します。

[shell] brew tap homebrew/science -v brew install -v tophat [/shell]

sratoolkitは、tophatとは依存関係がないものの、公共NGSデータベースのSRA(Sequence Read Archive)からダウンロードしてきたデータからfastqファイルを生成する際に必要なので入れておくことを推奨します。

[shell] brew install -v sratoolkit [/shell]

mappingする対象のreference genomeは、検索可能になるよう、あらかじめインデックスを作成しておく必要があります。Reference genomeがhogenome.faというファイルで、hogeという名前でインデックスを作成する場合は以下のようにコマンドを実行します。

[shell] bowtie2-build -f hogenome.fa hoge [/shell]

Continue reading »


bamの切った貼った

Written by bonohu in misc on 月 08 12月 2014.

Reference genome配列に対するmappingの結果ファイル、bam。そこから特定の染色体などの場所を絞り込んだデータだけを作成する場合に以下のsamtoolsのオプションが大変有効です。 複数のbamファイル(1.bam 2.bam 3.bam)をmerge(結合)して、all.bamというファイルにしたい場合は以下のコマンドで。

[shell] samtools merge all.bam 1.bam 2.bam 3.bam [/shell]

all.bamファイルをsortして、それを上書きする場合。

[shell] samtools sort all.bam all [/shell]

IGVで閲覧するなどindexが必要な場合に。indexファイルとして.baiな拡張子のファイルが作成されます。

[shell] samtools index all.bam [/shell]

逆に切り出し。実はこれをやるためにもindexファイルが必要なようでした。all …

Continue reading »


統合データベース講習会AJACS岩手

Written by bonohu in misc on 日 07 12月 2014.

今シーズン初めの雪が積もりだした岩手医科大学矢巾キャンパスにて講習会。師走の忙しい時期ということもあってか、若干集まりも悪く、人数も少なめでした。しかしながら、内容としては濃いものでした。

今回の講習会の内容は、ホスト先の先生のご希望もあり、いつもとは違うラインナップで、とくに自分は「RおよびBioconductorを使ったバイオデータ解析」と題した講習を担当しました。これまで出してきた論文の中でRにお世話になった部分は少なからずあり、それを解説して実習をやるという形式で2時間弱。予想したボトルネックである「Rのインストール」は、事前にしてきてもらうことをお願いして回避。そして、前回9月の講習でハマった「講習で使うデータの受け渡し」(ネットでダウンロードしてもらうと、ブラウザ環境がヘテロなためにどこにダウンロードしたかがわからず、個別対応で時間が取られる)もUSBメモリで会場配布することで、受講者がファイルの置いた場所を意識でき、乗り切れました。ところが、です。Rを実行する際にそのデータをどこに置いたかに個人差があり、現在作業しているディレクトリにデータファイルがおいてあることが前提で進めてあるサンプルスクリプトそのままでは動かず、setwd()を個別対応する必要がありました。ファイルが置かれている場所が日本語入り(マルチバイト文字列)だったりして(ムニャムニャ)。その辺も揃えて実行できるような講習内容にしないとダメですね。そういうこともあってなかなかコードの中身の説明が十分にできなかった気もしますが、ゼロからそういうスクリプトが書ける必要はない話等して納得いただけたのではないかと。コマンド一発でグラフの画像ファイルが生成されたときのみなさんの感激にはハッとされました。その感激を忘れずに、新規なツールと格闘していきましょう、お互いに。

実は、北東北(きたとうほく)で初の開催でした。まだ開催していない地方は山陰地方ぐらいとなりました。日本全国でDB利用講習会を …

Continue reading »


NO DATABASE, NO RESEARCH. DBCLS

Written by bonohu in misc on 木 27 11月 2014.

「種を超えて保存された生理代謝機構の解明に向けて:データベースによるアプローチ」と題して、第37回日本分子生物学会年会にてフォーラムという枠をいただいた。そもそもワークショップ採択を目指して応募したものの落とされ、その後フォーラムがやれるかどうかという連絡もなく放置され、ポスター発表等すべてが決まってからフォーラムをやっていいということになったので演者のセレクションに大変困ったため、最終的には同じ職場から同じくワークショップに出していてフォーラムに回されたところとの事実上の共同開催となった。Scientific Dataに関してNatureのなかのひとに話してもらった部分がそれで、他の演題との関連性が厳しいかなあと当初は思っていたものの。 実際やってみるとすべての演題における課題が「データベース」という、必然的に共通の課題がハイライトされて、結果としてうまくまとまったというのが本音。「種を超えて保存された」という部分に関しては来年以降の課題ということで、また次回以降もやっていきたいなと。 例によって私のイントロは去年出したPLOS One論文をネタにしたものでしたが、オチとしてはこのブログエントリのタイトルにある

NO DATABASE, NO RESEARCH. DBCLS

というスライドにしてみました。実際、こういう状況が多くの研究分野において起こっているのではないかと推測しておりましたが、学会で多くの人と 話してみてその「憶測」は「実測」へと変わりました。もっともっと我々DBを普及するものが頑張っていかないといけない研究社会になっているようです。がんばろう、DBCLS!

141126forum.001

Continue reading »


目訴本

Written by bonohu in misc on 月 24 11月 2014.

amazonにも目訴本のエントリが。Ensembl, Jalview, InterPro, GEO/ArrayExpressの項のほか、第1部の「ウェットな研究にデータベースやウェブツールを役立てるための秘訣」という雑文を寄稿しました。現時点でよく使われる各DBやウェブツールについての情報や我々の考えが紙媒体として出る久しぶりの機会でした。皆さんの参考になれば幸いです。 [amazon template=thumbnail&asin=4758103437] 私個人としては、普段から慣れ親しんだDBやウェブツールの紹介でしたから、前者のEnsembl, Jalview, InterPro, GEO/ArrayExpressの項はさらっと、とくにInterProのそれは依頼があってから1日で書いてしまうぐらいでした。 ところが、です。「秘訣」の方はかなり苦労しました。2014年夏休みの宿題として、この夏ずっと抱え込んで悩んだ結果です。実は結論ありきで、その主張に関して普段から生命科学研究者に伝えたいトピックで肉付けしていくという工法で。皆さんのご意見、ご批判を期待しています。

Continue reading »


Biohackathon2014終了

Written by bonohu in misc on 日 16 11月 2014.

宮城県松島で開催されたBiohackathon2014に参加してきました。目標にあげた、複数のマシンに分かれてやっているAOEのデータ更新の仕組みの統合化とgithubでの公開は達成しました。そして、データ更新も開発者がいる前で実際に実行し、一部不具合があったのをその場で対応してもらいました。実際のデータ取得のためのスクリプト生成部分が一部手動のため全自動にはなっていないのですが、更新の手間が大分減ったかと。別手段でのメタデータ取得を検討するのが今後の課題かと。表示データの検討(シークエンサ情報をどこまで載せるかとか)と検索精度の向上(アレイの型番の検索対応とか)が今後の課題ですね。次回はちゃんと前で発表できるよう、一番最初から参加せねば…。

Continue reading »


自家製BLAST用DBから必要な配列エントリバッチ取得

Written by bonohu in misc on 金 14 11月 2014.

自家製BLAST用DBから必要な配列エントリ取得の続き。 配列セットを作成したいときは2,3本でなく、数十本から数百本といったことが多いようです。

[shell] blastdbcmd -db oreno.aa -entry 'gi|5524211|gb|AAD44166.1|' [/shell]

といったコマンドを繰り返せばもちろん取得できますが、IDだけが書かれたファイルから一気にバッチ取得したい時がほとんどです。それ用のオプションも…ありました!

[shell] blastdbcmd -db oreno.aa -entry_batch 1.txt [/shell]

1.txtは1行ごとにIDが書かれた(改行コードがdelimiterとなっている)ファイル。こちらのほうがはるかに高速です。

Continue reading »



fastQC

Written by bonohu in misc on 金 31 10月 2014.

シークエンスのクオリティチェックによく使われるのがfastQC。その詳しい説明はこちらに譲る。SRAにアーカイブされているデータに関してはあらかじめ計算したものがDBCLS SRAから利用可能だが(例: Illumina bodymap2 transcriptomeの1ファイル)、公開前のデータは自ら計算する必要がもちろんある。

homebrewなら以下のコマンドでfastQCがインストールできる。 [shell] brew install -v fastqc [/shell] エラーが出た場合はhomebrew/scienceをtapしていない可能性が。 [shell] brew tap homebrew/science [/shell] してから上のコマンドを実行。

JDKが入っていないと入れろというメッセージが出るので、そのインストールを忘れずに。

[shell] fastqc ERR030893.fastq -o fastqc_out [/shell] のようにして使う。fastqc_outは結果のファイル(HTML形式)が出力されるディレクトリ。また、fastqファイルが圧縮されている場合でも [shell] fastqc ERR030893.fastq.gz …

Continue reading »


Mishima.syk#4

Written by bonohu in misc on 日 26 10月 2014.

次回に引き続き、今回も発表させていただく。ただ前回のようにいつもの話じゃなくて、新ネタ披露の場としてみなさんに被験者となってもらって。 結果としてほぼ全員MacOSXという幸運に恵まれたものの、反省点の多いハンズオンとなってしまいました。 思っていたよりもコマンドを動かすには必要なファイルが多く、そして大きく、USBメモリでの受け渡しの限界を感じた。あらかじめその種のファイルをダウンロードしてもらって、というのが良さそう。 手を動かしてもらうところをもっと多くすべきでした。準備不足で申し訳ありませんでした。

Continue reading »


Japan Spotfire User Group Meeting 2014

Written by bonohu in misc on 土 11 10月 2014.

割と欠かさず参加してきたJapan Spotfire User Group Meeting(JASPUGM)。今回は久しぶりに話す機会を頂きました。内容的には普段から各地で話している講演の再構成版ですが、次世代DNAシーケンサーと統合データベース活動の2つをテーマに、それぞれ基調講演と分科会講演ということで。現時点では、SRAにDNA塩基配列情報が約3Pbases登録されており、その容量が約2Pbyteだったということが聴衆には衝撃的だった模様。ちなみに、P(ペタ)はT(テラ)の1000倍の単位です。それを伝えたスライドはまだslideshareにもアップしていなかったので、今回の講演記録としてここに掲載しておきます。

SRA(Sequence Read Archive)

GUIで手軽にjoinできる機能がやはり便利!というのは今も変わっていないということを再確認。そういう意味では統合TVにアップされているSpotfireの使い方もまだまだ現役かなと。だいぶ長い間更新していないので、アップデートが必要なんですけど…。作り手おりませんかねぇ。

Continue reading »


justRMAその後

Written by bonohu in misc on 火 09 9月 2014.

処理したい生データ(CEL.gzのファイル)だけを実行するdirectoryに集めて、justRMAを実行するのであるが、これらはとくにgzip圧縮を解凍する必要はなく、圧縮されたままでも実行されるようである。同じ生データを何回も別のデータセットとして使うことになると思うが、cpコマンドでその都度複製を作るのではなく、lnコマンドでリンクにしたほうがディスクスペースの削減になる。

[shell] ln ../140909/GSM1217731.CEL.gz . [/shell]

という具合に。この例では、今の作業directoryの親directoryにまた別の作業directory(名前は140909)があって、その中のGSM1217731.CEL.gzを再度使うのであるが、単にコピーするのでなく、リンクを張っている。

R/Bioconductorを入れてjustRMAを実行する部分は過去のエントリを参照。

生成されたファイル(RMA.txt)のヘッダ行(一番先頭の行)には各実験のラベルとしてファイル名が使われていて、例えばGSM1217731.CEL.gzなどと書かれている。情報として欲しいのはGSMのID('GSM1217731'だけ)のみで、残りの.CEL.gzは余分で、スペースを取り、むしろ邪魔である。それを抹殺するのに以下のperlワンライナーが有効である。

[shell …

Continue reading »


GEOにあるCELファイル名を扱いやすくするには?

Written by bonohu in misc on 火 09 9月 2014.

GEOは遺伝子発現データのアーカイブで、再利用できるデータの宝庫である。だがしかし、多くのユーザがデータをdepositしてきているためファイル名などに一貫性がなく、コンピュータでの一括処理に困ることもたびたびある。

例えば、GSE50378に含まれている4つのマイクロアレイのraw dataのうち、GSM1217731のファイルは、GSM1217731_110720_03_dmso24H.CEL.gzってな具合に実験条件までファイルに書かれていて(それはそれで何の実験であるかのラベルとして便利なのだが)、他のシリーズのデータと一括してRMA正規化などを行う際にはファイル名に一貫性がなく、却って不便である。このGSMのIDのみがファイル名になっている(もちろん、ファイル拡張子がそれ以外に付くが…)のが、一括処理には向くわけである。 実際のデータファイルの名前を見たところ、この種のデータはGEOにおいてGSM数字_任意の文字列.CEL.gzというルールで付けられているようなので、中にある「任意の文字列」を削って、GSM数字.CEL.gzとなるように変換するscriptで対応することにする。

[perl] while(<>) { chomp; $f1 = $_; $f2 = $1.".CEL.gz" if(/^(GSMd+)/); system("mv -i $f1 $f2"); } [/perl]

これをrename.prlという名前で保存し、変更したいCEL …

Continue reading »


バイオインフォマティクス人材育成カリキュラム(次世代シークエンサ)速習コース

Written by bonohu in misc on 月 08 9月 2014.

9/5に表題の講習会の講師を務めてきました。普段、日本各所で行っている統合データベースの普及利用促進のための1-2日開催の統合データベース講習会AJACSとは異なり、NGSの速習コース(とはいえ、2週間がっつり)ということで気合の入った受講生たちでした。私のパートは「配列解析基礎」ということで、配列解析の歴史や配列、ゲノムデータ記述のフォーマット、基礎的な配列比較解析の原理と実習を3時間ほど。NGS速習コースということでメインではなく、NGS解析に関係する歴史的な背景やデータフォーマットに重点を置いたので、もっとガッツリ配列解析を勉強したかった人には不満足な内容だったかもしれませんがそういう人は独習でカバーして下さい。何でも教えてもらいたいという姿勢が垣間見られ、「主体的に学ぶ」姿勢をもっと着けてほしいな、と思ったのは私だけではないのではないかと。もちろん、ほとんどの人はそう実践していて、ほんの一部の人の傾向だけかもしれませんが。

[slideshare id=37668088&w;=597&h;=486&fb;=0&mw;=0&mh;=0&style;=border: 1px solid #CCC; border-width: 1px; margin-bottom: 5px; max-width: 100%;≻=no]

Basic Sequence Analysis from Hidemasa Bono

サンプル配列をあらかじめ …

Continue reading »


mtr

Written by bonohu in misc on 木 21 8月 2014.

あるホストから別のホストまでのネットワーク経路をリスト表示するコマンドtracerouteの今風版のmtrなのだが、homebrewで [shell] brew install mtr [/shell] で簡単にインストールできてしまうが、そのままではエラーが出て実行できない。しかし、以下のようにsudoをつけてroot権限で実行すると [shell] sudo mtr bonohu.jp [/shell] うまくネットワーク経路が表示される。しかし毎回、sudoしたくないので、setuidする。それには [shell] sudo chown root /usr/local/sbin/mtr sudo chmod u+s /usr/local/sbin/mtr [/shell] してmtrコマンドをroot権限で実行できるように。 homebrewは一般ユーザーでなんでもできるようになっているが、こういうところで注意が必要。回避する手段がhomebrewにあるかもしれんが…。

Continue reading »


difffのチカラ

Written by bonohu in misc on 火 19 8月 2014.

論文reviseの際などには、某論文のコピペの可能性を示唆したあのツールがもちろん役に立つ。しかしながら、以下の様な行番号が付いた文書データしか手元になく、それと新しい版を比較せねばならないことがある。

1 High-throughput sequencing technology, also called next-generation sequencing (NGS), 2 has the potential to revolutionize the whole process of genome sequencing, 3 transcriptomics, and epigenetics. Sequencing data is captured in a public primary 4 data archive, the Sequence Read Archive (SRA).

直接コピーして貼り付けると、内容は同じでも行番号が邪魔して異なっていると判断されてしまう …

Continue reading »


ゲノムマッピング結果をwigで表示

Written by bonohu in misc on 土 09 8月 2014.

Bowtieなどで単にゲノムマッピングした結果(sam/bam形式)を各位置ごとに数値で表現してみたいというときに。マシンパワーと出力されるデータ量の制限で10塩基刻みでwigに変換するには [shell] samtools mpileup hoge_sorted.bam | perl -ne 'BEGIN{print "track type=wiggle_0 name=fileName description=fileNamen"};($c, $start, undef, $depth) = split; if ($c ne $lastC) { print "variableStep chrom=$cn"; };$lastC=$c;next unless $. % 10 ==0;print "$startt$depthn" unless $depth<3;' > hoge.wig [/shell] ってなかんじで …

Continue reading »


自家製BLAST用DBから必要な配列エントリ取得

Written by bonohu in misc on 金 08 8月 2014.

BLASTでヒットがあったエントリの配列データを切り出してきたい時はままあるかと。公共データベースのエントリならtogowsのRESTで取得するなり、ググるなりNCBIで検索するなりで配列データにありつけるかと思います。ところが、自分で作成したDBに対してBLASTした場合にはそうもいかないことがあるわけで。その場合どうするか、なのですが、とくに新規のコマンドをインストールしなくてもできるいい方法があります。

それにはまず、BLASTのDBを作成するコマンドmakeblastdbを実行するときに-parse_seqidsというオプションも足して実行します。例えば、自分の手持ちのDBがoreno.aaというFASTA形式のファイルだとすると

1
2
3
#!/bin/sh

makeblastdb -in oreno.aa -dbtype prot -hash_index -parse_seqids

な感じで。 そして、BLASTヒットがorenogene1だったとすると

1
2
3
#!/bin/sh

blastdbcmd -db oreno.aa -entry orenogene1

とすればFASTA形式でそのエントリの配列が取得できます。ただ、FASTAのヘッダ行のラベルが|(パイプ)などで長くなっていると、行頭からスペースが現れるまでの文字列を指定する必要があるようです。例えば …

Continue reading »


github再入門

Written by bonohu in misc on 水 06 8月 2014.

某所の講習会でファイルの共有を(バックアップで)やっておく必要が出てきたので、新しいレポジトリを作成する必要が。完全に忘れたので、一番最初から。 [shell] git config --global user.name "Your name" git config --global user.email "Your email address" git config --global core.autocrlf input git config --global core.sefecrlf true [/shell] そして、レポジトリに入れたいファイル群をadd&commit。 [shell] git init git add . git commit -m "first commit" [/shell] そして …

Continue reading »


配列解析基礎の講習準備

Written by bonohu in misc on 火 05 8月 2014.

バイオインフォマティクス人材育成カリキュラム(次世代シークエンサ)速習コースの講師で「配列解析基礎」を担当。その講習会資料をここ数日作成。 振り返ってみると自分が大学院に入った頃からすでに20年ぐらい経っていて、すでに歴史の中にいる自分に気づくなど…。 昔に翻訳した「バイオインフォマティクス」や自分で書いた「バイオインフォマティクス」(若葉本)も見返したり、紙媒体で持っている資料も多く掘り返しての労作となりました。その過程でこれらのコンテンツがかなり古くなっていることに気づくなど。 (狭義の)大学教員でなく、講義をしないからかつてはそういう物書きを進んでしていたのだが、最近もそういう機会もなく、また実際のデータ解析の現場にもいないので遠ざかっていたり。 機会があればアップデートしたいとは思っているのですが、書籍を出す話もなく、このブログ止まりなところが現状。うまいやり方ないかな。 [amazon asin=489706290X&template=thumbnail] [amazon asin=4895924262&template=thumbnail]

Continue reading »


IGVはじめました

Written by bonohu in misc on 金 01 8月 2014.

IGV(Integrative Genomics Viewer)をいじってみた。まずは、統合TVの基本編の方を見て。ダウンロードするときに所属機関の記入が必須の模様。'IGV 使い方'でググって出てきたウェブサイトも参考にしながら、データを準備して以下の読み込むところまで。 今回の対象が予め用意されたgenomeにない非モデル生物種だったので、bamファイルを作成する際に使ったFASTAファイルを読み込むところから始める、裏口入学でw。メニューバーの「Genomes」→「Load genome from File…」からFASTA形式のゲノム配列を読み込んで。

ただ幸いなことに、すでにsamからbamに変換されたファイルをもらっていて

[shell] samtools view -bS hoge.sam > hoge.bam [/shell]

のsam-bam変換は必要なかったので、以下のsort & indexを作るところから。

[shell] samtools sort hoge.bam hoge_sorted samtools index hoge_sorted.bam [/shell …

Continue reading »


スパコンユーザー会

Written by bonohu in misc on 木 31 7月 2014.

他の方々の使い方を垣間見れて参考になった。公共データベースを利用して、という使い方はそれほどメジャーではなかったものの、そういう要望も出てきているようで。私も計算をする前の調査ばかりじゃなくて、そろそろメインの計算始めないと。

Continue reading »


Soylatte事始め

Written by bonohu in misc on 水 30 7月 2014.

DBCLS SRA Metadata Search の結果をJSONで取ってくるのを教えてもらったので、備忘録的に。

まずは出力されるJSONを処理するコマンドとして、jqをインストールしておく。

[shell] brew install -v jq [/shell]

で。SRAデータの中で、Study typeが'Transcriptome'、キーワードとして'heat shock'を含むものを取ってくるときには

http://sra.dbcls.jp/search/data/search?species=&type=Transcriptome&instrument=&query=heat%20shock'

のようなURLを叩けば結果がJSONで返ってくるようになっているようで、そこからStudy IDだけを取ってきたいときにはcurlと上記のjqとあわせて、

[shell] curl 'http://sra.dbcls.jp/search/data/search?species=&type=Transcriptome …

Continue reading »


Python Imaging Library

Written by bonohu in misc on 日 27 7月 2014.
[http://www.pythonware.com/products/pil/](http://www.pythonware.com/products/pil/)

から入手できるとのことで、 Python Imaging Library 1.1.7 Source Kit (all platforms) (November 15, 2009) をダウンロード。5年近くアップデートされていないようで、libjpegもfreetypeもすでに入れていたのだが [shell] python setup.py install [/shell] ではすんなりとはインストールできず。出てきたエラーメッセージをググって出てきたページを見るにヘッダファイルのディクレクトリ関係らしく、 [shell] ln -s /usr/local/include/freetype2 /usr/local/include/freetype [/shell] するとうまくセットアップできた模様 …

Continue reading »


実践コンピュータビジョン

Written by bonohu in misc on 土 26 7月 2014.

「実践コンピュータビジョン」(原著: Programming Computer Vision with Python)を本屋で手にとってみてから購入。次の展開にむけた体力づくりのため、勉強^2。

[amazon asin=4873116074&template=thumbnail]

来月末にあるこの本の勉強会にも参加登録して自分からやる気を絞り出して。それにしても本屋で本を買うのは久しぶりの出来事でしたw。

Continue reading »


続・Selenium+PhantomJSで縦長のスクリーンショットを撮る

Written by bonohu in misc on 木 24 7月 2014.

前のエントリのSeleniumとPhantomJSを使ってブラウザを起動しないでスクリーンショットを撮るスクリプトの汎用化をpythonの勉強がてら。

[shell] python scsho.py "http://sra.dbcls.jp/" [/shell]

以下のスクリプトをscsho.pyとして、コマンドライン引数としてURLを入れることでそのページのスクリーンショットがscshoXXXXX.pngというファイル名で保存されるようにした。XXXXXはそのスクリプトを実行した時のpid(プロセスID)。

[python] import sys import os argvs = sys.argv pid = os.getpid() png = "scsho" + str(pid) + ".png" from selenium import webdriver driver = webdriver.PhantomJS() driver.get(argvs[1]) driver.save_screenshot(png) driver.quit() [/python]

キャストしないといけないとか懐かしかったり …

Continue reading »


Selenium+PhantomJSで縦長のスクリーンショットを撮る

Written by bonohu in misc on 土 19 7月 2014.

ウェブブラウザのスクリーンショットは画面の大きさしか撮れないのだが(当たり前)、ポスター発表の際に縦長のそれを作成して説明に使いたい時がある。それを実現するのに良いツールに思わぬ所で出くわしたので、それをφ(..)メモメモ。諸般の事情によりpythonで。

まずは、Selenium WebDriverに対するpythonのbindingパッケージを入れます。

[shell] pip install selenium [/shell]

などとして。

次にPhantomJSを。こちらはhomebrewで。

[shell] brew install -v phantomjs [/shell]

そして、スクリーンショットを撮るコード。ウェブブラウザを起動することなく撮ることができます。 [python] from selenium import webdriver import time driver = webdriver.PhantomJS() driver.get("http://sra.dbcls.jp/") driver.save_screenshot("DBCLSSRA_top.png") driver.quit() [/python …

Continue reading »


第13回スポットファイアーワークショップ(創薬研究領域)

Written by bonohu in misc on 土 19 7月 2014.

昨日7月18日(金)に、東京有楽町東京国際フォーラムにて。今回のテーマは「創薬研究初期におけるデータの活用」。ライフサイエンスデータの流通業を本業としている我々にとって、「データの活用」のためにこそ「流通業」をやっているわけだし、密接に関わる大事なテーマということで。

最初にPEの人となったSpotfireの中の人々から新規機能紹介。すでに自分の使っているバージョンだったため、何気に参考になりました。データの可視化にSpotfireが使われているのは以前と変わらないのですが、内部データや購入したデータ(ベース)以外に公共データの活用に取り組まれている実例を聞いて、再利用性の高いデータベースを作成、維持管理いかねばならない思いを新たに。創薬研究業界と分子生物学な我々の界隈とで「公共データ」といったときの温度差も再認識。分かってはいたつもりでしたが、実際にやっている人たちの話を聞いて大事な「軌道修正」となったかと。日本人標準ゲノム配列や遺伝子発現あたりが折り合いポイントですかね。そういう意味でも大変参考になりました。

それにしてもMishima.syk関係者の多いこと^2。自分たちが三島に移転したから意識するようになっただけかもしれないのですが。三島勢、元気ですという印象は与えた模様。どんどん盛り上げていきましょう!

実は去年は大阪で参加したのを、これを書いていてふと思い出しました。研究テーマも人のつながりも継続してこそだと、これまた再認識する良い機会でした。

継続は力なり

Continue reading »


ウェブサイト統合

Written by bonohu in misc on 月 14 7月 2014.

研究者としての情報は、大学院時代から研究室で自ら立てたウェブサーバで発信してきました。ソフト的には、最初はNCSAなhttpdで始め、ほどなくApacheを使うようになってそれ以来ずっとApache。ハードとしては、最初はSunOSじゃないからという理由で研究室でのけもの扱いだった DEC 3000 を使っていたが、大学院を出て常時接続が普通になってからは自作 PC Linux を使って自宅鯖(サーバ)として趣味的に。その後、より少音で省電力な Mac mini を使うようになり現在に至っています。 これまでそのサーバ上で、dokuwikiを使って管理してきたコンテンツには、研究者として公開すべき情報や講演資料、バイオインフォマティクスという研究分野関係の日本語コンテンツや私の考えなどでした。 そのうち一番最初の情報はresearchmapとして成果報告に適した定型のものが一般的に使われるようになってきています。 また、講演資料に関してもスライドを共有できるslideshareや、講演動画そのものを共有している統合TVやYouTubeといったサービスを介して発信できるようになってきました。 日本語コンテンツに関しても「統合データベースプロジェクト」以前は置き場がなく自宅鯖に置いたりしてきたが、統合データベース講習会が行われるようになってそれの講習会資料としてMotDBから発信するものでほぼ事足りており、それの補遺的な存在として自宅鯖でのブログエントリを書いたり。 こう書くと役目を終えてきた感満載なのですが、一番最後の私の考えだけが自宅鯖で発信していくべき情報としてまだ残されているかな〜ということでdokuwikiに書いてきたことを全面的に見直し、コンテンツを整理することにしました。researchmapにあるべき内容はそちらで今後更新、自宅鯖にあるべき内容はこのブログで発信というかたちで。

Continue reading »


Mishima.syk#3

Written by bonohu in misc on 土 12 7月 2014.

Mishima.sykというライフサイエンス業界な勉強会に参加してきました。その名の通り、2014年4月からの職場である三島近辺のその業界の勇士^H^H有志たちの勉強会です。職場が引っ越す前に開かれた、前回の第2回目に参加させてもらって本業との意外な接点を認識し(もちろん、以前から知ってはいたものの…)、積極的にかかわっていこうと今回は職務地移動のことなどを中心にライフサイエンス分野の公共データベースに関わる現職場関係の発表もさせていただきました。勉強会の詳細は勉強会の名前とかでググってもらって見つけてもらうとして、参加しての雑感だけをつらつらと。

皆さん、プレゼンがうまい。OBKなフレーズの再利用など、時事ネタが満載(これは発表タイトルを見ただけでもわかるかと)。データにしてもプログラムにしてもpublicなものを再利用するという観点は、ともすると自らが新しいデータを出してのみ研究という考えを持つアカデミアとは違うなあと。つまるところ、我々が作ってきたものをうまく活用してくれているということです。公共データベースの利用はもっとこっち系に(も)広めていったほうが更なる展開があるのではないかと。

参加者に関して。関東からのリピーターも居たり、また関東から三島に通ってきている人も居たりで、ローカルな勉強会なのにローカルさがなかったり。新幹線で時間的に近いからでしょうかね。

そして、懇親会での横のツナガリが素晴らしい。前回もそこで知り合った縁でランチスポットのバリエーションを豊かにしたり、ワインバーを知るきっかけを作ったり、講演会のお話までいただいたりしましたが、今後もっと大きな協力関係につながっていくのではないかとさえ思ったり。

最後に。私にとって一番刺激的だったこのセリフ。

「コーディングはお金のかからない趣味」

調整的な役割の仕事が増えてコマンドラインワークから遠ざかりつつあった自分に対する「アドレナリン」となったようです。単純な自分はこれに刺激されて、久しぶりに「捨てコード」を書いてデータ解析仕事に戻ってみたり、と一番の収穫だったように思います。

NIG Retreat 2014 …

Continue reading »


NIG retreat 2014

Written by bonohu in misc on 月 07 7月 2014.

7/3-4と遺伝研のリトリートに参加させて頂いて参りました。遺伝研からバスで40分ほどの御殿場高原時之栖にあるホテルがリトリートの会場。リトリートとは、「仕事や家庭生活等の日常生活から離れ、自分だけの時間や人間関係に浸ることで自分を見つめなおす場所」ということなのだそうですが、参加してみると学会の年会の様相。 しかしながら、個人的には普段なかなかお会いすることもできない先生方と同じホテルに泊まり、ポスター発表の時間などにお話する機会を持てたことは素晴らしいことでした。また、フリーディスカッションの時間に知り合いが「知り合い」を紹介してくれて、「新たな知り合い」となったこと。そして、これから同じキャンパスでひょっとすると共同研究できるかもしれない可能性の種を蒔いてきたことが何よりの成果だったかと。おまけに、現在お世話になっている研究室の教授のお計らいで、口頭発表させていただく機会までいただき、DBCLSの存在を宣伝できたり。 終わってみれば確かに「人間関係に浸ることで自分を見つめなおす場所」でした。

Continue reading »


DDBJ-DBCLS連携研究会

Written by bonohu in misc on 月 30 6月 2014.

6月26-27日の二日間にわたって、今年度も遺伝研研究会をオーガナイズしました。正式名称は国立遺伝学研究所2014年度研究会「塩基配列データアーカイブをフル活用するための大規模データ解析技術開発」。外部から10人の方に来て頂いてDDBJ-DBCLSの連携に期待することを語ってもらう一方、なかのひとにも自分のやっていることややっていきたいことを語ってもらいました。開始前はその語りは1日目途中で終わってガッツリそれぞれの専門分野ごとに別れての議論ができると思ったのですが、予想外にそれぞれの話のあとの議論が盛り上がって2日目の午前まで終わらず。でも結果としてはよい議論ができた、かと。ただ、外部の人のお話を拝聴するだけじゃなく、参加者全員に話をしてもらうことで会に主体的に関わることができたんじゃないかと思います。ここで話したことがきっかけとなって、今後の開発が進むことを願ってやみません。始めたキッカケ(1回目)が情報・システム研究機構内の若手集会という形だったこともあって、これまではこちらから外部の人を招待してクローズドな研究会としてこれまで3回開催して参りましたが、次回以降は、統合データベースユーザー会としてオープンな会とするのがいいのかなと個人的には思っております(そうなると研究会の予算的な根拠を考えないといけなくなるかもしれませんが…)。トーゴーの日の前後とかに会場近くでできるといいかも。 余談ですが、前回までと同じく今回も研究会の連絡は主にGoogle Driveのドキュメントで最新情報を告知し、それの更新アラート的に主催者から電子メールを送る形で進めました。発表PC切り替えの時間ロスを最小化すべく、Google ドライブの「プレゼンテーション」で作成し、メインのGoogle Driveドキュメントからリンクすることを推奨しました。事前に他人のプレゼンが見れるこの方式が功を奏したようで、他人のプレゼンを見てそれぞれ推敲を重ねていただいたようで結果としてどのプレゼンも完成度の高いものとなっていました。今後研究会をやる際の参考にしていただければ幸いです。

Continue reading »


データベースのID番号

Written by bonohu in misc on 木 20 3月 2014.

かつては塩基配列を解読したらそれをINSDC(International Nucleotide Sequence Database Collection; DDBJ/EMBL(ENA)/GenBankのこと)に登録してから論文を投稿するという流れで研究が進んでいました。例えば、AB016472とかがそのアクセッション番号と呼ばれるもので、バージョン付きのAB016472.1という形のそれを見ることも多いでしょう。これらのデータベースエントリはDDBJのgetentryやNCBIのNucleotideのページなどから閲覧できます。 また、NCBIのNucleotideからは、RefSeqというNCBIでまとめられたReference Sequenceのデータベースエントリも検索可能です。例えばNM_117704.6などがそうで、mRNAの配列はNMから始まるエントリ番号を持ちます。これらのRefSeqの配列検索や閲覧にはDBCLSで開発維持管理しているGGRNAが便利です(上述の例の検索結果)。 さらに、最近では上記の公的な塩基配列データベースではなく、独自に作成したデータベースにのみ登録されている配列情報も増えてきております。そういった独自のデータベースIDも流布しており、そのようなIDでインターネット検索(Google検索)するとそれぞれのデータベースエントリに行き着けることもままあります。しかしながら、論文報告する際には上述のINSDCに登録することが必要なのは、次世代シーケンサーが出てきてものすごい量の塩基配列が一度に読めるようになった今となっても全く変わっておりません。すでにそのようなデータベースに入っているものであっても論文報告で「主役級」の遺伝子であれば、登録しましょう。きっと読み直しもしたのだろうし。

Continue reading »


統合牧場移転

Written by bonohu in misc on 土 01 3月 2014.

統合牧場の郊外への移転が始まりました。一ヶ月のモラトリアム期間を経て、2014年4月からは静岡県三島市にある国立遺伝学研究所にその場を移します。

統合牧場の歴史は、統合TVを作成して頂く近隣の大学院生RA(Research Assistant)さんや大学生アルバイトさんたちから始まりました。その後、プログラミングスキル豊かなRAさんたちの参入によって技術開発部が自然発生的に成立し、「男の子牧場」事件があった頃だったこともあって(?)、「ヘンタイ牧場」を経て「統合牧場」と呼ばれるようになりました。

技術開発部はNGS解析の黎明期にその解析パイプラインプロトタイプやそういったものを動かすのに必要なコンピュータリテラシーに関して多くの日本語ドキュメントをインターネット上に蓄積した他、自然言語処理に関しても継続的に研究開発を進め、学会年会抄録間の関連性マップを作成するといった成果も挙げてきました(例: トーゴーの日シンポジウム2013のポスター関連図)

2007年7月から続く統合TV番組作成は、2014年2月までの、6年と8ヶ月(80ヶ月)で 763 本の統合TVを作成、公開しました。月平均約9.5個、約3.1日に1本というペースです。年ごとの集計を単純に足すと、 訪問者数 361,917 訪問数 1,154,330 ページ 3,785,082 バイト数 24.6Tb でした。ただ …

Continue reading »


BH13.13 最終日

Written by bonohu in misc on 土 01 2月 2014.

ランチョンwrap-up。特別、前に出て報告はしなかったものの、*Author'sサービスから他のサービスへの導線づくりは複数の手段で進められていくことに。乞うご期待!

Continue reading »


BH13.13 4日目

Written by bonohu in misc on 金 31 1月 2014.

昨日のツケ。筋肉痛でボロボロだったが、*Author's centralプロジェクトの実装を開始。実例を作らせていただいた。HIF-1αにマウスイン(hover)、クリックすると…。DBCLSの別のサービス(RefExAllie)へのリンクが出てくるように。よければすべてのデータに関してリンクされるようにしようかと。

Continue reading »