1980年代の後半、放射性標識ではなく、複数の蛍光色素を用いて各塩基を標識するという新たなプロセスが生み出された。これにより作業効率が4倍になった。4回の反応過程を経ずとも、1回で同じ作業が可能になったのだ。
1990年代のキャピラリーアレイ電気泳動という技術によりシーケンス解析はさらに効率化された。熟練した研究者が手作業でDNAストランドをゲルプレートに流し込むのではなく、機械が自動的に96本のキャピラリー(毛細管)にDNAストランドを吸い込み、それらをレーザーで読み込むというわけだ。これにより同プロジェクトは、最長1000塩基で構成されたゲノムの断片を処理できるようになった。
プロジェクトが始まった頃、大きな研究機関はシーケンス解析用のソフトウェアを開発していたが、システム間での標準化がなされていないうえ、ソフトウェアを使用するには極めて高度なスキルが必要であったため、使いこなせる研究者はほとんどいなかった。
その後、キャピラリーアレイ電気泳動システムの導入と、ムーアの法則に従ったコンピューティングの進歩により、シーケンス解析のペースは上がり、コストも削減できるようになったものの、研究者が解析に使用するソフトウェアはそのペースについていけなかった。
Schloss氏は「いつもデータのところで待ちが発生していた」と述懐している。
ヒトゲノム計画には、特定サイズのゲノム解析結果を24時間以内に公開するという原則があった(ちなみに同時期にゲノムのシーケンス解析を実施していた私企業のCeleraは、解析結果を非公開にしていた)。
とは言うものの、ヒトゲノム計画が始まった頃、ある一定のレベルまでしか公開が追いつかなかった。Schloss氏は「(読み取り結果の共有が可能な長さは、研究者らが)FTPでデータを送信できるサイズまでだった。当時まだメインフレームを使用していたのかについては、よく覚えていない。おそらくはミニコンピュータ(UNIVAC)か、同世代のコンピュータだったはずだ。データの量を考えた場合、PCでできることは限られていた。1989年や1990年の時点でどんな作業にPCを使っていたかと言えば、ゲルリーダーに接続してスラブシーケンスゲルを読み込むためだった。PCはさまざまな研究機関で導入されていたが、(共有するには)データがあまりにも多すぎたのだと思う」と述べている。