Informatica Scenario Baseret Interview Spørgsmål og svar - Introduktion

Informatica er et meget vigtigt værktøj, der bruges i datalagring, som hjælper med at styre store datamængder og rapportere analysen af ​​data. Nedenfor er nogle spørgsmål, som kan være nyttige, når du deltager i en samtale om Informatica.

Så du har endelig fundet dit drømmejob i Informatica, men spekulerer på, hvordan du knækker Informatica-interviewet, og hvad der kan være de sandsynlige Informatica Scenario Baserede Interview Spørgsmål. Hver samtale er forskellig, og omfanget af et job er også anderledes. Med dette i tankerne har vi designet de mest almindelige Informatica-scenariebaserede interviewspørgsmål og svar, der hjælper dig med at få succes i dit interview.

Nogle af de vigtigste Informatica Scenario Baserede Interview Spørgsmål, der ofte stilles i et interview, er som følger:

1. Hvordan fjerner du duplikatposter i Informatica? Forklar de forskellige måder at gøre det på?

Svar:
Der er mange måder at fjerne duplikater på:

1. Hvis der i kildedatabasen findes duplikater, kan en bruger bruge egenskaben i kildekvalifikator. En bruger skal gå til fanen Transformation og markere indstillingen 'Select Distinct'. En bruger kan også bruge SQL-tilsidesættelse til det samme formål. Brugeren kan gå til fanen Egenskaber og i fanen SQL-forespørgsel skrive den distinkte forespørgsel.
2. En bruger kan bruge Aggregator og vælge porte som nøgle til at få forskellige værdier. Hvis en bruger ønsker at finde duplikater i hele kolonnen, skal alle porte vælges som en gruppe efter nøgle.
3. Brugeren kan også bruge Sorter med Sort særskilte egenskaber for at få forskellige værdier.
4. Ekspression og filtertransformation kan også bruges til at identificere og fjerne duplikatdata. Hvis data ikke er sorteret, skal de først sorteres.
5. Når en egenskab i Lookup-transformation ændres til at bruge Dynamic cache, tilføjes en ny port til transformationen. Denne cache opdateres, når og når data læses. Hvis en kilde har duplikatposter, kan brugeren kigge i dynamisk opslagcache, og derefter vælger routeren kun en bestemt post.

2. Hvad er forskellen mellem kildekvalifikator og filtertransformation?

Svar:
Kildekvalifikationstransformation bruges til at repræsentere rækker, som integrationstjenesten læser i en session. Det er en aktiv transformation. Ved hjælp af kildekvalifikator kan følgende opgaver udføres:
1. Når der er to tabeller fra den samme kildedatabase med primær nøgle - fremmed nøgletransformation-forhold, er kilderne knyttet til en kildekvalifikationstransformation.
2. Filtrering af rækker, når integrationstjenesten tilføjer en hvor-klausul til brugerens standardforespørgsel.
3. Når en bruger ønsker en ydre sammenføjning i stedet for en indre sammenføjning, erstattes tilslutningsinformationen med metadata, der er angivet i SQL-forespørgsel.
4. Når der er specificeret sorterede porte, bruger integrationstjenesten ordre efter klausul til standardforespørgslen.
5. Hvis en bruger vælger at finde en distinkt værdi, bruger integrationstjeneste markering, der er markant med den specificerede forespørgsel.
Når de data, vi har brug for at filtrere, ikke er en relationskilde, skal brugeren bruge filtertransformation. Det hjælper brugeren med at opfylde den specificerede filtertilstand for at give slip eller passere. Det sletter rækkerne direkte, der ikke opfylder betingelsen, og flere betingelser kan specificeres.

3. Design en kortlægning for at indlæse de sidste 3 rækker fra en flad fil i målet?

Svar:
Antag, at den betragtede flade fil har nedenstående data:
Kolonne A
Aanchal
Priya
Karishma
Snehal
Nupura

Trin 1 : Tildel rækkenumre til hver post. Generer rækkenumre ved hjælp af udtrykstransformation ved at oprette en variabel port og øge den med 1. Herefter tildeles denne variabelport til outputport. Efter udtrykstransformation vil havne være som -

Variable_count = Variable_count + 1
O_count = Variable_count
Opret en dummy outputport til samme udtrykstransformation og tildel 1 til den port. Denne dummy-port returnerer altid 1 for hver række.
Endelig vil transformationsudtrykket være som følger:
Variable_count = Variable_count + 1
O_count = Variable_count
Dummy_output = 1

Resultatet af denne transformation vil være:
Kolonne A O_count Dummy_output
Aanchal 1 1
Priya 2 1
Karishma 3 1
Snehal 4 1
Nupura 5 1

Trin 2 : Overfør ovennævnte output til en aggregator og angiv ingen gruppe efter betingelse. En ny outputport skal oprettes som O_total_records i aggregatoren og tildele O_count port til den. Aggregatoren returnerer den sidste række. Den endelige output fra dette trin har en dummy-port med værdien 1 og O_total_records har et samlet antal poster i kilden. Samlet output vil være: O_total_records, Dummy_output
5 1

Trin 3 : Overfør dette output til sammenføjningstransformation og anvend en sammenføjning på dummy-porten. Det egenskabssorterede input skal kontrolleres i snedkertransformation. Først da kan brugeren forbinde både ekspression- og aggregatortransformation til snedkestransformation. Samlingstransformationskondition vil være som følger:
Dummy_output (port fra aggregator transformation) = Dummy_output (port fra expression transformation)

Produktionen af ​​snedkertransformation vil være
Kolonne A o_count o_total_records
Aanchal 1 5
Priya 2 5
Karishma 3 5
Snehal 4 5
Nupura 5 5

Trin 4 : Efter sammenføjningstransformationen kan vi sende dette output til filtertransformation og specificere filtertilstand som O_total_records (port fra aggregator) -O_count (port from expression) <= 2

Som følge heraf vil filtertilstanden være
O_total_records - O_count <= 2

Den endelige output af filtertransformation vil være:
Kolonne A o_count o_total_records
Karishma 3 5
Snehal 4 5
Nupura 5 5

4. Hvordan indlæses kun NULL-poster i målet? Forklar ved hjælp af kortlægningsstrøm?

Svar:
Overvej nedenstående data som en kilde
Emp_Id Emp_Name Salary City Pincode
619101 Aanchal Singh 20000 Pune 411051
619102 Nupura Pattihal 35000 Nagpur 411014
NULL NULL 15000 Mumbai 451021

Måltabellen har også tabelstruktur som kilde. Vi har to tabeller, den ene vil indeholde NULL-værdier og den anden, som ikke indeholder NULL-værdier.
Kortlægningen kan være som:

SQ -> EXP -> RTR -> TGT_NULL / TGT_NOT_NULL
EXP - Ekspressionstransformation skaber en outputport
O_FLAG = IIF ((ISNULL (emp_id) ELLER ISNULL (emp_navn) ELLER ISNULL (løn) ELLER ISNULL (City) ELLER ISNULL (Pincode)), 'NULL', 'NNULL')
RTR - Router-transformation to grupper
Gruppe 1 forbundet til TGT_NULL (Udtryk O_FLAG = 'NULL')
Gruppe 2 forbundet til TGT_NOT_NULL (Udtryk O_FLAG = 'NNULL')

5. Forklar, hvordan ydeevnen for sammenføjningstilstand kan øges?

Svar:
Ydeevnen for sammenføjningstilstand kan øges ved at følge nogle enkle trin.
1) Brugeren skal udføre sammenkoblinger, når det er muligt. Når dette for nogle tabeller ikke er muligt, kan en bruger oprette en gemt procedure og derefter slutte sig til tabellerne i databasen.
2) Data skal sorteres, inden ansøgning tilmeldes, når det er muligt.
3) Når data ikke er sorteret, skal en kilde med mindre antal rækker betragtes som en hovedkilde.
4) Ved sorteret sammenføjningstransformation skal en kilde med mindre duplikate nøgleværdier betragtes som en hovedkilde.

Anbefalet artikel

Dette har været en guide til Liste over Informatica Scenario-baserede Interview Spørgsmål og svar, så kandidaten let kan nedbryde disse Informatica Scenario-baserede Interview Spørgsmål. Du kan også se på de følgende artikler for at lære mere -

  1. Maven Interview Spørgsmål og svar | Top og mest stillede
  2. 10 avancerede AngularJS-interviewspørgsmål til erfarne
  3. Vejledning til Informatica ETL-værktøjer
  4. 12 Mest fantastiske Selenium-interviewspørgsmål og svar
  5. Fantastisk guide til Informatica Arkitektur
  6. Komplet guide til Informatica vs Datastage