我已经用迭代方式和递归方式实现了深度优先搜索算法。它们在小尺寸的文件(小于1 MB)上都能正常工作。然而,当我尝试在50 MB的文件上运行它们时,似乎递归-DFS(9秒)比使用迭代方法(至少几分钟)快得多。事实上,迭代方法花了好久才完成。
我选择实现迭代DFS的唯一原因是,我认为它可能比递归DFS更快,但似乎并非如此。
请注意。我已经使用了 java -Xmx1024m -Xms1024m -Xmn256m -Xss16m RunAlgo
来增加内存。
下面是我用来写迭代DFS的代码。
class IterativeDFS{
long time;
LinkedList<Vertex>topological_sort_list = new LinkedList<Vertex>();
public IterativeDFS(Digraph G){
dfs(G);
}
public void dfs(Digraph G){
for(Vertex u : G.getAllVertices()){
u.set_color("WHITE");
u.set_pi(-1);
}
time = 0;
for(Vertex u : G.getAllVertices()){
if(u.get_color().equals("WHITE")){
dfs_stack(G, u);
}
}
}
public void dfs_stack(Digraph G, Vertex u){
int size = G.getAllVertices().size();
/*
* to be able to iterate over each adjacency list, keeping track of which
* vertex in each adjacency list needs to be explored next.
*/
HashMap<Vertex, Iterator<Vertex>> adj_map = new HashMap<Vertex, Iterator<Vertex>>();
for(Vertex i : G.getAllVertices()){
adj_map.put(i, G.adjEdges(i).iterator());
}
Stack<Vertex> stack = new Stack<Vertex>();
// time++; // white vertex u has just been discovered
u.set_d(time);
u.set_color("GRAY");
stack.push(u);
while(!stack.empty()){
Vertex k = stack.peek();
Vertex v = null;
if(adj_map.get(k).hasNext()){
v = adj_map.get(k).next(); // explore edges (k,v)
if(v.get_color().equals("WHITE")){
v.set_pi(k.get_node());
// time++;
v.set_d(time);
v.set_color("GRAY");
stack.push(v);
}
} else{
// v's adjacency list is exhausted
Vertex t = stack.pop();
time++;
t.set_f(time);
t.set_color("BLACK");
/*
* Topological Sort :
* 1. call DFS(G) to compute finishing times v.f for each vertex v
* 2. as each vertex is finished, insert it onto FRONT of linked list
* 3. return linked list of vertices
*/
topological_sort_list.addFirst(t);
}
}
}
public LinkedList<Vertex> topological_sort(){
return topological_sort_list;
}
}
如果你说的是时间复杂度,答案是它们都是一样的。无论实现如何,DFS的运行时间都是O(V),因为你应该准确地访问图中的每个顶点一次。此外,运行时间也是Omega(V),因为无论输入大小,你都要访问一次图中的所有顶点。这使得DFS的运行时间为Theta(V)。无论采用何种实现方式,DFS的整体算法都是一样的。因此,递归DFS与迭代DFS的运行时间应该是一样的,都是Theta(V)。