Составление английского


28

Составное слово - это слово, содержащее 2 или более слов. Мы можем сделать лучше, чем это, хотя. Нам нужно, чтобы вы создали 1 (бессмысленное) слово, которое содержит каждое слово .

Однако мы хотим, чтобы это слово было как можно более коротким. Мы можем использовать перекрывающиеся буквы для достижения этой цели.

Например, если ваш список слов был ["cat", "atom", "a"], вы хотели бы вернуться "catom".

Ввод, вывод

Ваша программа должна будет взять список слов в качестве входных данных и вернуть составное слово в качестве выходных данных.

По словам Google, список слов, который вы будете использовать, - это первые 10000 слов на английском языке (если этот список окажется слишком простым, я могу изменить его на более длинный). Для справки, просто добавив каждое слово, вы получите 65888 баллов.

Ваша оценка - это количество букв в вашем последнем слове, чем меньше, тем лучше. Галстук идет к первому постеру.



1
@Loovjo нет, но если все закончится тем, что брутфорс работает достаточно быстро, я изменю список слов, чтобы сделать его длиннее.
Натан Меррилл

1
@PatrickRoberts Если он подходит к вашему ответу, поддержит вас :) Ссылка для вставки / гистограммы была бы полезна, но не обязательна.
Натан Меррилл

1
Хм, кто знает хорошего ассиметричного коммивояжера по эвристике?
Дэйв

2
Никакой обертки, да и детерминированной.
Натан Меррилл

Ответы:


26

C ++, конечная длина слова: 38272

(оптимизированная версия заняла около 20 минут)

#include <iostream>
#include <string>
#include <vector>

std::size_t calcOverlap(const std::string &a, const std::string &b, std::size_t limit, std::size_t minimal) {
    std::size_t la = a.size();
    for(std::size_t p = std::min(std::min(la, b.size()), limit + 1); -- p > minimal; ) {
        if(a.compare(la - p, p, b, 0, p) == 0) {
            return p;
        }
    }
    return 0;
}

int main() {
    std::vector<std::string> words;

    // Load all words from input
    while(true) {
        std::string word;
        std::getline(std::cin, word);
        if(word.empty()) {
            break;
        }
        words.push_back(word);
    }

    std::cerr
        << "Input word count: " << words.size() << std::endl;

    // Remove all fully subsumed words

    for(auto p = words.begin(); p != words.end(); ) {
        bool subsumed = false;
        for(auto i = words.begin(); i != words.end(); ++ i) {
            if(i == p) {
                continue;
            }
            if(i->find(*p) != std::string::npos) {
                subsumed = true;
                break;
            }
        }
        if(subsumed) {
            p = words.erase(p);
        } else {
            ++ p;
        }
    }

    std::cerr
        << "After subsuming checks: " << words.size()
        << std::endl;

    // Sort words longest-to-shortest (not necessary but doesn't hurt. Makes finding maxlen a tiny bit easier)
    std::sort(words.begin(), words.end(), [](const std::string &a, const std::string &b) {
        return a.size() > b.size();
    });

    std::size_t maxlen = words.front().size();

    // Repeatedly combine most-compatible words until there is only one left
    std::size_t bestPossible = maxlen - 1;
    while(words.size() > 1) {
        auto bestA = words.begin();
        auto bestB = -- words.end();
        std::size_t bestOverlap = 0;
        for(auto p = ++ words.begin(), e = words.end(); p != e; ++ p) {
            if(p->size() - 1 <= bestOverlap) {
                continue;
            }
            for(auto q = words.begin(); q != p; ++ q) {
                std::size_t overlap = calcOverlap(*p, *q, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = p;
                    bestB = q;
                    bestOverlap = overlap;
                }
                overlap = calcOverlap(*q, *p, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = q;
                    bestB = p;
                    bestOverlap = overlap;
                }
            }
            if(bestOverlap == bestPossible) {
                break;
            }
        }
        std::string newStr = std::move(*bestA);
        newStr.append(*bestB, bestOverlap, std::string::npos);

        if(bestA == -- words.end()) {
            words.pop_back();
            *bestB = std::move(words.back());
            words.pop_back();
        } else {
            *bestB = std::move(words.back());
            words.pop_back();
            *bestA = std::move(words.back());
            words.pop_back();
        }

        // Remove any words which are now in the result
        for(auto p = words.begin(); p != words.end(); ) {
            if(newStr.find(*p) != std::string::npos) {
                std::cerr << "Now subsumes: " << *p << std::endl;
                p = words.erase(p);
            } else {
                ++ p;
            }
        }

        std::cerr
            << "Words remaining: " << (words.size() + 1)
            << " Latest combination: (" << bestOverlap << ") " << newStr
            << std::endl;

        words.push_back(std::move(newStr));
        bestPossible = bestOverlap; // Merging existing words will never make longer merges possible
    }

    std::string result = words.front();

    std::cout
        << result
        << std::endl;
    std::cerr
        << "Word size: " << result.size()
        << std::endl;
    return 0;
}

Проверка Bash однострочно:

cat commonwords.txt | while read p; do grep "$p" merged.txt >/dev/null || echo "Not found: $p"; done

Это также произвело некоторые довольно прохладные слова в процессе. Вот некоторые из моих любимых:

  • Поли вчера (синтетическая ностальгия)
  • афганистанбуль (что-то [вставьте не понравившийся вам политик] скажет)
  • Togethernet (дружественный интернет)
  • слон (большой призрак)
  • защищенный от грозовых вод (как в «Я не знаю, почему они чувствовали необходимость сделать его защищенным от подземных вод, но это заставляет меня нервничать»)

А также:

  • CodeScriptingo (может быть, предстоящий вызов на этом сайте?)

Окончательный результат находится на pastebin здесь: http://pastebin.com/j3qYb65b


2
Наблюдение, которое может быть полезно для других, ищущих оптимальное решение: проблему можно свести к неевклидовой, асимметричной задаче коммивояжера: определите матрицу, где элемент i, j = max_word_length - overlap(word[i], word[j])(где overlapпроверяется перекрытие справа от первый аргумент слева от второго). Решение этой проблемы (удачи!), Затем обрезание получающегося цикла с наивысшей стоимостью (с наименьшим перекрытием) даст упорядоченный список слов, которые можно объединить, чтобы получить оптимальное решение.
Дейв

Впечатляет. Проверяет ли каждое слово в текущем списке каждое другое слово? Я обдумывал это, но предположил, что мне нужно будет просто проверить случайную выборку, чтобы запустить ее в разумные сроки.
Трихоплакс

1
@ValueInk да, кеширование будет большим приростом производительности. В более ранней версии это было, но это добавляет много сложности, поэтому, когда я адаптировал некоторую логику, мне пришлось переписать много. Вместо этого я решил отказаться от кэширования. Также нет, это не совсем оптимально. Это жадный алгоритм, поэтому он не может оценить компромиссы и не может выбирать между «одинаково хорошими» вариантами. Смотрите мой комментарий TSP для (NP-Hard) оптимального решения.
Дейв

1
@trichoplax Да, это то, что он делает. Время выполнения O (n ^ 3), что не так уж плохо для этого размера выборки. С помощью кэширования оно может быть уменьшено до O (n ^ 2). Внутренняя проверка также очень параллельна, поэтому даже для больших выборок она может выполняться за разумное время с помощью потоков / распределенных вычислений. Кроме того, это значительно увеличивает скорость, зная диапазон возможных значений ширины перекрытия для каждого шага, что сокращает время выполнения в 10 раз.
Дейв

2
Это может быть не так сложно, как общий TSP, потому что у нас есть забавное ограничение, которое перекрывает (a, b) ≥ min {overlap (a, d), overlap (c, d), overlap (c, b)} для всех a , б, в, д.
Андерс Касеорг

21

C ++ 11, 38272 буквы, доказано оптимальным

Этот алгоритм гарантированно обеспечивает нижнюю границу решения. В этом случае он может достичь нижней границы и вывести оптимальное 38272 буквенное решение. (Это соответствует решению, найденному жадным алгоритмом Дейва. Я был удивлен и немного разочарован, обнаружив, что это оптимально, но мы здесь.)

Он работает путем решения проблемы минимальных затрат в сети, построенной следующим образом.

  • Во-первых, любые слова, содержащиеся в других словах, являются избыточными; откажитесь от них.
  • Для каждого слова w нарисуйте два узла w _0 и w _1, где w _0 - источник с емкостью 1, а w _1 - приемник с емкостью 1.
  • Для каждого (строгого) префикса или суффикса a любого слова нарисуйте узел a .
  • Для каждого суффикса a of w нарисуйте дугу от w _0 до a с емкостью 1 и стоимостью 0.
  • Для каждого префикса a of w нарисуйте дугу от a до w _1 с емкостью 1 и стоимостной длиной ( w ) - длиной ( a ).

Любая строка длины n , содержащая каждое слово, может быть преобразована в поток в этой сети, стоимость которого не превышает n . Поэтому минимальный поток затрат в этой сети является нижней границей длины самой короткой такой строки.

Если нам повезет - и в этом случае мы - тогда, после того, как мы перенаправим поток, поступающий в w _1 обратно из w _0, мы найдем оптимальный поток, который имеет только один связанный компонент и который проходит через узел для пустого строка. Если это так, он будет содержать эйлерову схему, начинающуюся и заканчивающуюся там. Такая эйлерова схема может быть прочитана как строка оптимальной длины.

Если нам не повезло, добавьте несколько дополнительных дуг между пустой строкой и кратчайшими строками в других связанных компонентах, чтобы обеспечить существование эйлеровой схемы. Строка больше не обязательно будет оптимальной в этом случае.

Я использую библиотеку LEMON для ее минимального потока и алгоритмы Эйлера. (Это был мой первый раз, когда я использовал эту библиотеку, и я был впечатлен - я определенно буду использовать ее снова для будущих нужд алгоритма графа.) LEMON поставляется с четырьмя различными алгоритмами потока с минимальными затратами; Вы можете попробовать их здесь с --net, --cost, --capи --cycle( по умолчанию).

Программа запускается за 0,5 секунды , создавая эту строку вывода .

#include <iostream>
#include <string>
#include <unordered_map>
#include <unordered_set>
#include <vector>
#include <lemon/core.h>
#include <lemon/connectivity.h>
#include <lemon/euler.h>
#include <lemon/maps.h>
#include <lemon/list_graph.h>
#include <lemon/network_simplex.h>
#include <lemon/cost_scaling.h>
#include <lemon/capacity_scaling.h>
#include <lemon/cycle_canceling.h>

using namespace std;

typedef lemon::ListDigraph G;

struct Word {
    G::Node suffix, prefix;
    G::Node tour_node;
};

struct Edge {
    unordered_map<string, Word>::iterator w;
    G::Arc arc;
};

struct Affix {
    vector<Edge> suffix, prefix;
    G::Node node;
    G::Node tour_node;
};

template<class MCF>
bool solve(const G &net, const G::ArcMap<int> &lowerMap, const G::ArcMap<int> &upperMap, const G::ArcMap<int> &costMap, const G::NodeMap<int> &supplyMap, int &totalCost, G::ArcMap<int> &flowMap)
{
    MCF mcf(net);
    if (mcf.lowerMap(lowerMap).upperMap(upperMap).costMap(costMap).supplyMap(supplyMap).run() != mcf.OPTIMAL)
        return false;
    totalCost = mcf.totalCost();
    mcf.flowMap(flowMap);
    return true;
}

int main(int argc, char **argv)
{
    clog << "Reading dictionary from stdin" << endl;
    unordered_map<string, Affix> affixes;
    unordered_map<string, Word> words;
    unordered_set<string> subwords;
    G net, tour;
    G::ArcMap<int> lowerMap(net), upperMap(net), costMap(net);
    G::NodeMap<int> supplyMap(net);
    string new_word;
    while (getline(cin, new_word)) {
        if (subwords.find(new_word) != subwords.end())
            continue;
        for (auto i = new_word.begin(); i != new_word.end(); ++i) {
            for (auto j = new_word.end(); j != i; --j) {
                string s(i, j);
                words.erase(s);
                subwords.insert(s);
            }
        }
        words.emplace(new_word, Word());
    }
    for (auto w = words.begin(); w != words.end(); ++w) {
        w->second.suffix = net.addNode();
        supplyMap.set(w->second.suffix, 1);
        w->second.prefix = net.addNode();
        supplyMap.set(w->second.prefix, -1);
        for (auto i = w->first.begin(); ; ++i) {
            affixes.emplace(string(w->first.begin(), i), Affix()).first->second.prefix.push_back(Edge {w});
            affixes.emplace(string(i, w->first.end()), Affix()).first->second.suffix.push_back(Edge {w});
            if (i == w->first.end())
                break;
        }
        w->second.tour_node = tour.addNode();
    }
    for (auto a = affixes.begin(); a != affixes.end();) {
        if (a->second.suffix.empty() || a->second.prefix.empty() ||
            (a->second.suffix.size() == 1 && a->second.prefix.size() == 1 &&
             a->second.suffix.begin()->w == a->second.prefix.begin()->w)) {
            affixes.erase(a++);
        } else {
            a->second.node = net.addNode();
            supplyMap.set(a->second.node, 0);
            for (auto &e : a->second.suffix) {
                e.arc = net.addArc(e.w->second.suffix, a->second.node);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, 0);
            }
            for (auto &e : a->second.prefix) {
                e.arc = net.addArc(a->second.node, e.w->second.prefix);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, e.w->first.length() - a->first.length());
            }
            a->second.tour_node = lemon::INVALID;
            ++a;
        }
    }

    clog << "Read " << words.size() << " words and found " << affixes.size() << " affixes; ";
    clog << "created network with " << countNodes(net) << " nodes and " << countArcs(net) << " arcs" << endl;

    int totalCost;
    G::ArcMap<int> flowMap(net);
    bool solved;
    if (argc > 1 && string(argv[1]) == "--net") {
        clog << "Using network simplex algorithm" << endl;
        solved = solve<lemon::NetworkSimplex<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cost") {
        clog << "Using cost scaling algorithm" << endl;
        solved = solve<lemon::CostScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cap") {
        clog << "Using capacity scaling algorithm" << endl;
        solved = solve<lemon::CapacityScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if ((argc > 1 && string(argv[1]) == "--cycle") || true) {
        clog << "Using cycle canceling algorithm" << endl;
        solved = solve<lemon::CycleCanceling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    }

    if (!solved) {
        clog << "error: no solution found" << endl;
        return 1;
    }
    clog << "Lower bound: " << totalCost << endl;

    G::ArcMap<string> arcLabel(tour);
    G::Node empty = tour.addNode();
    affixes.find("")->second.tour_node = empty;
    for (auto &a : affixes) {
        for (auto &e : a.second.suffix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(e.w->second.tour_node, a.second.tour_node), "");
            }
        }
        for (auto &e : a.second.prefix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(a.second.tour_node, e.w->second.tour_node), e.w->first.substr(a.first.length()));
            }
        }
    }

    clog << "Created tour graph with " << countNodes(tour) << " nodes and " << countArcs(tour) << " arcs" << endl;

    G::NodeMap<int> compMap(tour);
    int components = lemon::stronglyConnectedComponents(tour, compMap);
    if (components != 1) {
        vector<unordered_map<string, Affix>::iterator> breaks(components, affixes.end());
        for (auto a = affixes.begin(); a != affixes.end(); ++a) {
            if (a->second.tour_node == lemon::INVALID)
                continue;
            int c = compMap[a->second.tour_node];
            if (c == compMap[empty])
                continue;
            auto &b = breaks[compMap[a->second.tour_node]];
            if (b == affixes.end() || b->first.length() > a->first.length())
                b = a;
        }
        int offset = 0;
        for (auto &b : breaks) {
            if (b != affixes.end()) {
                arcLabel.set(tour.addArc(empty, b->second.tour_node), b->first);
                arcLabel.set(tour.addArc(b->second.tour_node, empty), "");
                offset += b->first.length();
            }
        }
        clog << "warning: Found " << components << " components; solution may be suboptimal by up to " << offset << " letters" << endl;
    }

    if (!lemon::eulerian(tour)) {
        clog << "error: failed to make tour graph Eulerian" << endl;
        return 1;
    }

    for (lemon::DiEulerIt<G> e(tour, empty); e != lemon::INVALID; ++e)
        cout << arcLabel[e];
    cout << endl;

    return 0;
}

Хотя я не могу утверждать, что понимаю, как работает минимальный поток, если это действительно оптимально, хорошо сделано!
Натан Меррилл

1
Извините, что разочаровал: PI не думал о сети потока; это довольно элегантно Мне потребовалось некоторое время, чтобы понять, как вы связывали слова в своей сети, прежде чем я наконец понял: «Для каждого (строгого) префикса или суффикса a любого слова нарисуйте узел« означает, что узлы «а» могут быть разделены между несколько слов.
Дейв

1
Также ваше решение примерно в 2000 раз быстрее моего!
Дейв

1
Может быть, помочь этому парню ( cs.cmu.edu/~tom7/portmantout ) с его попыткой подобной вещи?
Оливер Даугерти-Лонг,

2
@ OliverDaugherty-Long Done ! (На этот раз на самом деле.) Лучшими ранее известными границами были 520732 ≤ оптимальной длины ≤ 537136, и я считаю, что я улучшил обе границы до 536186.
Андерс Касорг

13

Ява 8, ~ 5 минут, длина 39 279

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
import java.util.Optional;
import java.util.Set;
import java.util.stream.Collectors;

public class Words {

    public static void main(String[] args) throws Throwable {
        File file = new File("words.txt");
        List<String> wordsList = new ArrayList<>();
        BufferedReader reader = new BufferedReader(new FileReader(file));
        String line;
        while ((line = reader.readLine()) != null) {
            wordsList.add(line);
        }
        reader.close();

        Set<String> words = new HashSet<>();

        System.out.println("Finished I/O");

        for (int i = 0; i < wordsList.size(); i++) { //Step 1: remove any words that occur in other words
            boolean in = false;
            for (int j = 0; j < wordsList.size(); j++) {
                if (i != j && wordsList.get(j).contains(wordsList.get(i))) {
                    in = true;
                    break;
                }
            }
            if (!in) {
                words.add(wordsList.get(i));
            }
        }

        System.out.println("Removed direct containers");

        List<String> working = words.stream().sorted((c, b) -> Integer.compare(c.length(), b.length())).collect(Collectors.toList()); //Sort by length, shortest first
        StringBuilder result = new StringBuilder();
        result.append(working.get(0));
        while (!working.isEmpty()) {
            Optional<String> target = working.stream().sorted((c, b) -> Integer.compare(firstLastCommonality(result.toString(), b), firstLastCommonality(result.toString(), c))).findFirst(); //Find the string that has the greatest in common with the end of 'result'
            if(target.isPresent()) { //It really should be present, but just in case
                String s = target.get();
                working.remove(s);
                int commonality = firstLastCommonality(result.toString(), s);
                s = s.substring(commonality);
                result.append(s);
            }
        }

        System.out.println("Finished algorithm");

        String r = result.toString();
        System.out.println("The string: \n" + r);
        System.out.println("Length: \n" + r.length());
        System.out.println("Verified: \n" + !wordsList.stream().filter(s -> !r.contains(s)).findFirst().isPresent());
    }

    private static int firstLastCommonality(String a, String b) {
        int count = 0;
        int len = b.length();
        while (!a.endsWith(b) && !b.equals("")) {
            b = cutLastChar(b);
            count++;
        }
        return len - count;
    }

    private static String cutLastChar(String string) {
        if (string.length() - 1 < 0) {
            return string;
        } else {
            return string.substring(0, string.length() - 1);
        }
    }

}

Входные данные:

  • файл с именем 'words.txt' в рабочем каталоге, в том же формате, что и файл в основном сообщении

Выход:

Finished I/O
Removed direct containers
Finished algorithm
The string: 
[Moved to pastebin](http://pastebin.com/iygyR3zL)
Length: 
39279
Verified: 
true

2
FGITW, а на Яве не меньше. Вы, сэр, имеете мой голос.
Патрик Робертс

2
Ницца! Вы избавились от 26,609персонажей.
Р. Кап

@ R.Kap пойди разберись! Я даже не думал, что рассчитать это ... Должен быть более умный алгоритм, хотя, это только первое, что пришло в голову ...
Сократов Феникс

7

Python 2, 39254 символа

Занимает 1-2 минуты, чтобы запустить на моем компьютере, работает, беря самое длинное слово и затем всегда добавляя слово в строку результата, которая имеет наибольшее количество общих строк. (Перед этим все слова, которые являются подстрока других слов, удаляются, чтобы избежать ненужного добавления в строку.)

Обновление: пытался смотреть в обоих направлениях, но это не делает ничего лучше. (может быть, он использует слова, которые можно использовать позже?)

Ссылка на слово на pastebin.

первые 100 символов:

telecommunicationsawayneillegallynnbabyenbcjrxltdxmlbsrcwvtxxxboxespnycdsriconsentencessexyrsslipodc

Код:

import re
import urllib

def suffix_dist(w1,w2):
    for i in range(min(map(len,[w1,w2])))[::-1]:
        if w1[-i:]==w2[:i]:
            return i
    return 0

url="https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt"
s=urllib.urlopen(url).read()
words=s.split()
words.sort(key=len,reverse=True)

## remove words that are substrings of other words anyway
for i in range(len(words))[::-1]:
    if any(words[i] in w for w in words[:i]):
        words.pop(i)

print len(words)

words.sort(key=len)
w1=words.pop(-1)
result=w1
while words:
    ## get the word with longest shared suffix/prefix
    w2=max(words,key=lambda x:suffix_dist(w1,x))
    print w2
    words.pop(words.index(w2))
    if w2 in result:
        break
    result+=w2[suffix_dist(w1,w2):]
    w1=w2


print result[:100]
print len(result)
print "Test:", all(w in result for w in s.split())

2
Уэлп, меня избили 25 персонажей ... +1 за это
сократовский феникс

Хорошо сделано! У меня была похожая идея, но у вас уже был ответ. Моя версия начинается с маленького слова вместо большого слова, а также с некоторой другой обрезкой, которая приводит к значительным потерям во временном факторе, что в 3 раза больше времени для запуска.
Чернила стоимости

5

Рубин, 39222 персонажа

В своем ответе на Python используется аналогичный подход к @KarlKastor, но начальная строка - одно из самых маленьких слов, а не самых больших. Другая оптимизация (я не знаю, насколько она полезна) заключается в том, что между каждым добавлением он удаляет любые слова, которые, возможно, уже были включены в строку из-за перекрывающихся слов.

Запускается на моей машине чуть более 4 минут, не считая веб-запроса на получение списка слов, но не совсем 4:20.

Слово о Пастебине.

require 'net/http'

puts "Obtaining word list..."
data = Net::HTTP.get(URI'https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt')
puts "Word list obtained!"

puts "Starting calculation..."
time = Time.now

words = data.split.sort_by(&:size)
words.reject!{|w| words.find{|x| w!=x && x.include?(w)}}

string = words.shift

def merge_dist(prefix, suffix)
    [prefix.size,suffix.size].min.downto(0).find{|i| prefix.end_with?(suffix[0,i])}
end

while words.length > 0
    suffix = words.max_by{|w| merge_dist string, w}
    string += suffix[merge_dist(string, suffix)..-1]
    words.reject!{|w| string.include? w}
end

delta = Time.now - time

puts "Calculation completed in #{delta} seconds!"
puts "Word is #{string.size} chars long."

open("word.txt", 'w') << string

puts "Word saved to word.txt"

3

PowerShell v2 +, 46152 символа

param([System.Collections.ArrayList]$n)$n=$n|sort length -des;while($n){$x=$n.Count;$o+=$n[0];0..$x|%{if($o.IndexOf($n[$_])-ge0){$n.RemoveAt($_)}}}$o

Принимает входные данные в виде списка, преобразует его в ArrayList (чтобы мы могли манипулировать им). Мы sortэто lengthв -desпорядке убывания. Затем whileу нас все еще есть слова в нашем входном массиве, сделать цикл. На каждой итерации устанавливаем значение помощника $xравным количеству, которое у нас осталось, прикрепляем следующий элемент списка к нашему выводу $o, а затем просматриваем все, что остается в нашем списке. Если значение .IndexOfне равно -1(то есть слово было найдено где-то в $o), мы удаляем это слово из нашего списка оставшихся слов. Наконец, в конце, вывод $o.

У меня нет доступа к Pastebin или подобному, так что вот начало и конец слова для временного - telecommunicationscharacterizationresponsibilitiessublimedirectory...fcmxvtwvfxwujmjsuhjjrxjdbkdxqc. Что, я думаю, сбило около 20 000 символов с ввода, так что, думаю, не так уж и плохо.

Я работаю над уточнениями.


0

PHP 46612 символов

Это только начало. Я надеюсь улучшить это. Все, что я сделал до сих пор, это удалил любое слово, которое является подстрокой другого слова. Я работаю над 3-мя копиями массива, но с памятью проблем не возникает.

<?php
set_time_limit(3000);

$words=file('https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt');
$words = array_map('trim', $words);

usort($words, function ($a, $b)
{
    if (strlen($a) == strlen($b) ){
        return 0;
    }
    return ( strlen($a) < strlen($b) )? -1 : 1;
});

$final_array=$words;
$comparison_array=$words;


  foreach($words as $key => $word){
    echo $word."<br>\n";
      foreach($comparison_array as $nestedKey => $nestedWord){
          if (strlen($nestedWord) <= strlen($word)) {
            unset($comparison_array[$nestedKey]);
            continue;
          }
          if( strpos($nestedWord,$word) !== FALSE ){
              unset($final_array[$key]);
              $restart=true;
              break;
          } 
      }    
  }


sort($final_array);
$compound='';
$compound = implode($final_array);
echo $compound;
echo "  <br><br>\n\n". strlen($compound);
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.