Video: inside Startups Interview: Hadapt - The Adaptive Analytical Platform for Big Data 2024
Senast år 2010 bildades Hadapt som en start av två Yale University-studenter och en biträdande professor i datavetenskap. Professor Daniel Abadi och Kamil Bajda-Pawlikowski, doktorand från Yales datavetenskapliga avdelning, hade arbetat med forskningsprojektet HadoopDB.
Efter det att detta papper publicerades blev Justin Borgman, en student från Yale School of Management, intresserad av arbetet. Han skulle senare gå samman med professor Abadi och Kamil Bajda-Pawlikowski för att bilda Hadapt.
Hadaptstrategin är att ansluta sig till Apache Hadoop med en Shared-No MPP-databas för att skapa en adaptiv analysplattform. Detta tillvägagångssätt ger ett standard SQL-gränssnitt på Hadoop och möjliggör analys över ostrukturerad, semistrukturerad och strukturerad data i samma kluster.
Som Apache Hive och annan teknik, tillhandahåller Hadapt ett välkänt JDBC / ODBC-gränssnitt för att skicka SQL eller MapReduce-jobb till klustret. Hadapt tillhandahåller en kostnadsbaserad sökoptimering, som kan avgöra mellan en kombination av MapReduce-jobb och MPP-databasjobb för att uppfylla en fråga, eller jobbet kan hanteras av MPP-databasen för snabbt interaktivt svar.
Genom att ansluta sig till ett Apache Hadoop-kluster med ett MPP-databaskluster för att skapa ett hybridsystem, löser Hadapt svarstiden och delvis SQL-support (via HiveQL) som finns i Apache Hive.