Anteprima
Vedrai una selezione di 10 pagine su 42
Algoritmi e strutture dati Pag. 1 Algoritmi e strutture dati Pag. 2
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 6
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 11
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 16
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 21
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 26
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 31
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 36
Anteprima di 10 pagg. su 42.
Scarica il documento per vederlo tutto.
Algoritmi e strutture dati Pag. 41
1 su 42
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

C D B F G E A

34. Dato il seguente albero binario, indicare l'ordine di visita in-order

C B D A F E G

35. Dato il seguente schema, se (A,B,C,D,E,H) e (A,B,C,D,E,I) sono percorsi minimi:

(B, C, D, E) è un tratto ottimo

il numero di nodi neri lungo ogni percorso da un nodo x

36. Definiamo altezza nera di x:

(escluso) ad una foglia (nodo NIL)

37. Dovendo eseguire il calcolo dei cammini minimi in un grafo con pesi negativi, devo usare:

Bellman Ford

38. Dovendo eseguire il calcolo dei cammini minimi in un grafo denso con pesi positivi, devo

Dijkstra

usare:

39. Dovendo eseguire il calcolo dei cammini minimi in un grafo sparso con pesi positivi, devo

Johnson

usare:

40. E' un sotto-grafo che collega tutti i nodi di un grafo non orientato, senza formare cicli; stiamo

alberto di copertura

parlando di: può essere

41. Eseguire una DFS basata su chiamate ricorsive in grafi molto grandi e connessi:

rischioso il fattore di carico è dato

42. Essendo m il numero di slot dove sono memorizzati n elementi:

dal rapporto tra n ed m significa dare almeno un tetto alla

43. Fornire la complessità dell'algoritmo corretto:

complessità del problema risolto dall'algoritmo

delete

44. Free() in C ha come analoga in C++:

indica una funzione

45. Fun(arg1, arg2 & ): sono utilizzati quando la soluzione esatta del problema può

46. Gli algoritmi deterministici:

essere ottenuta con certezza e senza ambiguità

fanno uso di strutture dati allocate in memoria

47. Gli algoritmi di Ordinamento Interno:

centrale dell'elaboratore ottimizzazione

48. Gli algoritmi golosi sono una tecnica di risoluzione di problemi di:

la soluzione esatta del problema è difficile

49. Gli algoritmi probabilistici sono preferiti quando:

o impossibile da ottenere con certezza, ma una soluzione approssimata può essere

sufficiente per le esigenze dell'applicazione

sono utilizzati quando una soluzione approssimata può essere

50. Gli algoritmi probabilistici:

sufficiente per le esigenze dell'applicazione quadratica

51. Gli Algoritmi Semplici di Ordinamento presentano una complessità:

workspace

52. Gli ambienti di Replit sono chiamati: consecutivamente

53. Gli elementi di un array sono memorizzati:

non sono necessariamente memorizzati in modo consecutivo

54. Gli elementi di una lista: gestire l'allocazione dinamica e la

55. Gli operatori new e delete in C++ sono usati per:

deallocazione degli oggetti

non impattano sulla complessità dell'algoritmo

56. Gli Unit Tesrs in Python: instabile

57. Heap Sort è in generale: non introduce strutture dati ausiliarie che dipendono dalla

58. Heap Sort è in place perché:

grandezza dell'array si

59. Heap Sort è in place: È come Merge Sort

60. Heap Sort nel caso medio: È come Merge Sort

61. Heap Sort nel caso peggiore: altera gli elementi chiave

62. Heap Sort non è stabile perché:

È molto efficiente

63. Heap sort: problemi che richiedono una sequenza di decisioni

64. Il backtracking è usato per risolvere:

65. Il backtracking funziona esplorando le possibili soluzioni del problema attraverso un

ricorsivo ed incrementale

processo: è una struttura dati che rappresenta un insieme di bit

66. Il BitSet è: con l'analisi di tutte le soluzioni possibili, senza applicare

67. Il brute force attack agisce:

alcuna strategia o euristica di ottimizzazione in ampiezza

68. Il calcolo della distanza di Erdős coincide con una visita del grafo:

logaritmico

69. Il costo di un algoritmo di ricerca binaria è: identico

70. Il costo di un algoritmo di ricerca binaria in C++ e Python è:

È un tipo di problema decisionale

71. Il dato di ingresso soddisfa una certa proprietà:

stesso risultato indipendentemente dall'esecutore

72. Il determinismo indica: il numero di figli di uno specifico nodo

73. Il grado di un albero indica: È il numero di sotto alberi del nodo

74. Il grado di un nodo in un albero: di ordine n^k

75. Il limite inferiore di una espressione polinomiale è: di ordine n^k

76. Il limite superiore di una espressione polinomiale è:

È il numero di livelli tra la radice dell'albero e il nodo stesso

77. Il livello di un nodo:

78. Il nome di questa funzione è

bfs

79. Il nome di questa funzione è

bfs

80. Il nome di questa funzione è:

bfs

81. Il nome di questa funzione è:

insert_bst

82. Il nome di questa funzione è:

is_bst

83. Il nome di questa funzione è:

is_bst distanza

84. Il numero di nodi di una sequenza in un grafo è detto:

di minimizzare la lunghezza dei caratteri che compaiono

85. Il principio di Huffman prevede:

più frequentemente

non supporta nativamente gli array

86. Il Python: è tipico di un nodo di un albero generico

87. Il riferimento all'array contenente i figli:

88. Il seguente albero

è un AVL

89. Il seguente albero

non è un ABR

90. Il seguente albero

non è un AVL

91. Il seguente albero:

è rosso-nero

92. Il seguente albero:

è rosso-nero

93. Il seguente albero:

è rosso-nero

94. Il seguente albero:

è rosso-nero

95. Il seguente albero:

è rosso-nero

96. Il seguente albero:

è rosso-nero

97. Il seguente albero:

è un ABR

98. Il seguente albero:

non è rosso-nero

99. Il seguente albero:

non è rosso-nero

100. Il seguente albero:

non è rosso-nero generare numeri

101. Il seguente codice può essere usato per: x = np.random.uniform(-M, M)

casuali

102. Il seguente codice può essere usato per:

il calcolo di una espressione polinomiale

101

103. Il seguente è un numero sconnesso: 121

104. Il seguente è un numero sconnesso: 34543

105. Il seguente è un numero sconnesso: 345434543

106. Il seguente è un numero sconnesso:

107. Il seguente grafo

è degli intervalli

108. Il seguente grafo

non è degli intervalli 5757

109. Il seguente non è un numero sconnesso: indica uno scambio del valore delle variabili

110. Il seguente pseudocodice (a, b) < - (b,a):

indica un valore specifico all'interno dell'array

111. Il seguente pseudocodice arr[{espr}]:

112. Il seguente teorema è:

Bellman

113. Il tempo di completamento medio dei job in figura è:

6.75

114. Il tempo di completamento medio dei job in figura è:

8.5 per determinare se un numero intero positivo è primo o

115. Il test di primalità è utilizzato:

composto 1.6

116. Il valore approssimativo della sezione aurea è pari a:

quadratica

117. In Bubble Sort la complessità nel caso medio è: lineare

118. In Bubble Sort la complessità nel caso migliore è: quadratica

119. In Bubble Sort la complessità nel caso peggiore è: static,

120. In C/C++ vi sono a disposizione del programmatore, i seguenti pools di memoria:

stack, heap la complessità è O(1)

121. In Fibonacci non ricorsivo per n ≤ 2: la complessità è O(n)

122. In Fibonacci non ricorsivo per n ≥ 3: di un esagono

123. In Flowgorithm la ripetizione è identificata da una forma:

124. In generale, Monte Carlo è utilizzato per la risoluzione di problemi numerici, come il calcolo di

È utilizzato per la

integrali e la simulazione di fenomeni fisici, mentre Las Vegas:

risoluzione di problemi di ricerca, come la ricerca di un elemento in una struttura dati

preparazione ed

125. In generale, un algoritmo probabilistico è composto da due parti:

esecuzione DP[i] = max(DP[i�], DP[i�] + D[i])

126. In Hateville: logaritmica

127. In Heap Sort la complessità nel caso medio è: logaritmica

128. In Heap Sort la complessità nel caso migliore è: logaritmica

129. In Heap Sort la complessità nel caso peggiore è: quadratica

130. In Insertion Sort la complessità nel caso medio è: lineare

131. In Insertion Sort la complessità nel caso migliore è: quadratica

132. In Insertion Sort la complessità nel caso peggiore è:

logaritmica

133. In Merge Sort la complessità nel caso medio è: logaritmica

134. In Merge Sort la complessità nel caso migliore è: logaritmica

135. In Merge Sort la complessità nel caso peggiore è:

il next

136. In Pseudocode il for necessità: l'endwhile

137. In Pseudocode il while necessità: for e while

138. In Pseudocode le iterazioni ammesse sono:

può ammettere integer

139. In Pseudocode un array: deve restituire un valore

140. In Pseudocode una funzione: per generare numeri casuali

141. In python numpy è una libreria usata: si sta creando un riferimento

142. In Python, quando si assegna un valore a una variabile:

all'oggetto in memoria sono puntatori impliciti

143. In Python, tutte le variabili:

144. In quale tecnica si sceglie la soluzione che sembra la migliore in quel momento, senza

tecnica golosa

considerare le conseguenze a lungo termine di quella scelta:

145. In questo albero di Huffman, la lettera b è codificata con:

101

146. In questo grafo, il coefficiente di Erdos di A è pari a:

1/3

147. In questo grafo, il coefficiente di Erdos di A è pari a:

2/3 logaritmica

148. In Quick Sort la complessità nel caso medio è: logaritmica

149. In Quick Sort la complessità nel caso migliore è: quadratica

150. In Quick Sort la complessità nel caso peggiore è: quadratica

151. In selection Sort la complessità ne caso medio è: quadratica

152. In selection Sort la complessità ne caso peggiore è: quadratica

153. In selection Sort la complessità nel caso migliore è: quella basata su

154. In termini di complessità, l'implementazione di Fibonacci più vantaggiosa è:

programmazione dinamica ha

155. In un albero binario di ricerca perfettamente sbilanciato, l'operazione di lookup:

complessità logaritmica ha complessità

156. In un albero binario di ricerca totalmente sbilanciato, l'operazione di lookup:

lineare l'informazione associata ad ogni

157. In un albero binario di ricerca, per ogni nodo N dell'albero:

nodo nel sottoalbero sinistro di N è strettamente minore dell'informazione associata ad

N due elementi non possono avere la stessa chiave

158. In un albero binario di ricerca:

tutte le foglie hanno la stessa profondità e tutti i nodi interni

159. In un albero completo:

hanno grado 2 c

Dettagli
Publisher
A.A. 2024-2025
42 pagine
2 download
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Doxum di informazioni apprese con la frequenza delle lezioni di Algoritmi e strutture dati e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Universita telematica "Pegaso" di Napoli o del prof D'urso Stefano.