皮皮网

【分享有礼源码】【在线要饭系统网站源码】【个性简约网导航源码】ikanalyzer 源码 下载

2024-12-29 02:13:08 来源:博易大师期货指标源码

1.求shop++的源码分享有礼源码源代码
2.如何简便使用ikanalyzer

ikanalyzer 源码 下载

求shop++的源代码

       主要库

       spring-aop-4.0.9.RELEASE

       spring-beans-4.0.9.RELEASE

       spring-context-4.0.9.RELEASE

       spring-context-support-4.0.9.RELEASE

       spring-core-4.0.9.RELEASE

       spring-expression-4.0.9.RELEASE

       spring-jdbc-4.0.9.RELEASE

       spring-orm-4.0.9.RELEASE

       spring-test-4.0.9.RELEASE

       spring-tx-4.0.9.RELEASE

       spring-web-4.0.9.RELEASE

       spring-webmvc-4.0.9.RELEASE

       hibernate-core-4.3.9.Final

       hibernate-jpa-2.1-api-1.0.0.Final

       hibernate-entitymanager-4.3.9.Final

       hibernate-validator-5.1.3.Final

       hibernate-search-orm-4.5.3.Final

       lucene-core-3.6.2

       freemarker-2.3.

       ehcache-core-2.6.

       ehcache-web-2.0.4

       shiro-core-1.2.3

       shiro-web-1.2.3

       c3p0-0.9.2.1

       commons-lang-2.6

       commons-beanutils-1.9.2

       commons-collections-3.2.1

       commons-io-2.4

       commons-net-3.3

       commons-fileupload-1.3.1

       commons-codec-1.

       commons-email-1.3.3

       commons-compress-1.9

       junit-4.

       /dtd/properties.dtd">

       <properties>

        <comment>IK Analyzer 扩展配置</comment>

        <entry key="ext_dict">/ikdic/ext_keyword.dic;</entry>//在classpath根目录下的ikdic包下的ext_keyword.dic,为扩展字典

        <entry key="ext_stopwords">/ikdic/ext_stopword.dic</entry> //在classpath根目录下的ikdic包下的ext_stopword.dic,为停止字典

       </properties>

       è‡³äºŽè°ƒç”¨æ˜¯å¾ˆç®€å•çš„:

       package org.bdp.util;

       import java.io.ByteArrayInputStream;

       import java.io.IOException;

       import java.io.InputStream;

       import java.io.InputStreamReader;

       import java.io.Reader;

       import java.util.ArrayList;

       import java.util.List;

       import org.wltea.analyzer.core.IKSegmenter;

       import org.wltea.analyzer.core.Lexeme;

       public class CZIKAnaUtil {

        public static void main(String[] args) {

        String str = "文嘉(-)";

        IKAnalysis(str);

        }

        public static List<String> IKAnalysis(String str) {

        List<String> keywordList = new ArrayList<String>();

        try {

        byte[] bt = str.getBytes();

        InputStream ip = new ByteArrayInputStream(bt);

        Reader read = new InputStreamReader(ip);

        IKSegmenter iks = new IKSegmenter(read,true);//true开启只能分词模式,如果不设置默认为false,也就是细粒度分割

        Lexeme t;

        while ((t = iks.next()) != null) {

        keywordList.add(t.getLexemeText());

        }

        } catch (IOException e) {

        e.printStackTrace();

        }

        /* for (int i = 0; i < keyWordList.size() - 1; i++) {

        for (int j = keyWordList.size() - 1; j > i; j--) {

        if (keyWordList.get(j).equals(keyWordList.get(i))) {

        keyWordList.remove(j);

        }

        }

        }

        Collections.sort(keyWordList, new Comparator<String>() {

        @Override

        public int compare(String o1, String o2) {

        return o2.length() - o1.length();

        }

        })*/

        System.out.println(keywordList);

        return keywordList;

        }

       }