Video: Hadoop Meets Real Time Big Data Analytics with Hadapt's Hong 2025
I slutningen af 2010 blev Hadapt dannet som en opstart af to Yale Universitetsstuderende og en adjunkt i datalogi. Professor Daniel Abadi og Kamil Bajda-Pawlikowski, ph.d.-studerende fra Yales computervidenskabsafdeling, havde arbejdet med forskningsprojektet HadoopDB.
Efter dette papir blev udgivet, blev Justin Borgman, en studerende fra Yale School of Management, interesseret i arbejdet. Han ville senere gå sammen med professor Abadi og Kamil Bajda-Pawlikowski for at danne Hadapt.
Hadapt-strategien er at tilslutte Apache Hadoop med en Shared-Nothing MPP-database for at skabe en adaptiv analytikplatform. Denne tilgang giver en standard SQL-grænseflade på Hadoop og muliggør analyse på tværs af ustrukturerede, semistrukturerede og strukturerede data på samme klynge.
Som Apache Hive og andre teknologier leverer Hadapt en velkendt JDBC / ODBC interface til at indsende SQL eller MapReduce jobs til klyngen. Hadapt tilbyder en omkostningsbaseret forespørgselsoptimering, som kan afgøre mellem en kombination af MapReduce-job og MPP-databasejob for at opfylde en forespørgsel, eller jobbet kan håndteres af MPP-databasen for hurtigt interaktivt svar.
Ved at tilslutte en Apache Hadoop-klynge med en MPP-databasekluster for at oprette et hybridsystem, løser Hadapt spørgsmålet responstid og delvis SQL-support (via HiveQL) fundet i Apache Hive.