SharePoint e rápido — Peanut Butter Cups do Reese do Enterprise Apps?

Eu rematar día 2 de adestramento rápido na soleada Needham, MA, e eu estou cheo de ideas (que todos os bos cursos de formación que facer para me). One particular aspect of FAST has me thinking and I wanted to write it down while it was still fresh and normal day-to-day "stuff" empurrou-o para fora da miña cabeza.

Nós SharePoint WSS 3.0 / Moss implementadores miúdo enfrontan un problema difícil con calquera proxecto SharePoint de tamaño razoable: Como podemos obter todos os datos non marcados cargados no SharePoint de xeito que todo encaixa dentro da nosa arquitectura de información perfectamente deseñado?

Moitas veces, o suficiente, este non é un problema tan difícil, porque nós mesmos ámbito de problemas: "We don’t care about anything more than 3 months old." "We’ll handle all that old stuff with keyword search and going-forward we’ll do it the RIGHT way…" Etc.

Pero, what happens if we can’t scope ourselves out of trouble and we’re looking at 10’s of thousands or 100’s of thousands (ou mesmo millóns) de docs — a carga e reserva de que é o noso desexo devoto?

Rápido pode ser a resposta.

Proceso de procura da FAST inclúe unha serie de partes móbiles, pero unha visión simplificada é este:

  • Un proceso rastreador busca por contido.
  • Atopa contido e entrega-lo a un proceso corrector que xestiona un pool de procesadores de documentos.
  • Proceso Broker entrega-lo para un dos procesadores de documentos.
  • O procesador analiza o documento e o documento por medio dun proceso de oleoduto, analiza o bejeezus fóra do documento e entrega-lo a un proceso de tipo constructor índice.

O rápido nave, we have a lot of control over the document processing pipeline. We can mix and match about 100 compoñentes de Segmentación e, o máis interesante, we can write our own components. Like I say, FAST is analyzing documents every which way but Sunday and it compiles a lot of useful information about those documents. Those crazy FAST people are clearly insane and obsessive about document analysis because they have tools and/or strategies to REALLY categorize documents.

Así … usar o FAST en combinación co noso propio compoñente Segmentación personalizado, we can grab all that context information from FAST and feed it back to MOSS. It might go something like this:

  • Documento aliméntase en FAST Moss.
  • Normal tolo obsesivo análise de documentos rápida e categorización pasa.
  • Noso propio compoñente Segmentación personalizado cae algunhas desas información fóra de contexto para unha base de datos.
  • Un proceso de noso propio proxecto le a información de contexto, fai que algunhas decisións sobre como encaixar ese documento Moss dentro do noso IA e marca-lo usando un servizo web eo modelo de obxecto.

Por suposto, ningún proceso automatizado pode ser perfecto, pero grazas ao obsesivo (e, posiblemente, insano-mais-en-un-bo-como a xente rápidas), podemos ter unha loita real filmado nun proceso de subida masiva verdadeiramente eficaz que fai máis que encher unha base de datos SQL con unha morea de documentos mal-searchable.

</final>

Rexístrate para o meu blog.

Technorati Tags: , ,

Deixe unha resposta

Enderezo de correo electrónico non será publicado. Os campos obrigatorios están marcados *