구글은 계속해서 정보를 갱신하기 때문에, 외부로 유출된 정보를 다른 내용을 덮어씌우면 해결할수 있습니다.
다만, 네이버의 경우는 한번 긁고 끝내기 때문에 수동으로 삭제요청을 하셔야 합니다.
구글의 경우 Robot.txt내용을 지키고 있으니, 특정 페이지는 크롤링하지 못하도록 지정해두시면 됩니다.
구글에선 아예 접속 불가능한 페이지는 저장후 그대로 남겨두는것 같습니다.
Robot.txt는 크롤러의 양심에 따르므로, Robot.txt를 설정하는 것은 별 소용이 없습니다.
검색 엔진은 구글만 존재하는것이 아니므로, 타 검색 엔진에선 삭제된 페이지를 가지고 있을수도 있습니다.